Wednesday, July 1, 2020

SEO



Question: CUSTOM ERROR PAGE

 Answer: The error page is the message displayed to the visitor when an error occurs in retrieving the webpage they requested for. Error message is also displayed when a server error occurs. The most common errors are- 1) 404 Not Found is displayed when the requested URL is not found on the web server. Causes can be- a)The link does not exist on web. b)The page was removed or re-named. c)The user made a mistake when typing the URL. 2) 403 Forbidden is displayed when the user requests for a page he is not allowed to i.e. pages which the general users are not allowed to access. 3) 503 Service Unavailable is displayed when the server is unavailable or overloaded or down. The custom error page is the error page (this page matches the theme and design of the site) in response to error occurring in the site.


বাংলা অনুবাদ ঃ

প্রশ্ন: কাস্টম ত্রুটি পৃষ্ঠা

 উত্তর: ত্রুটি পৃষ্ঠাটি সেই বার্তাটি দর্শকের কাছে প্রদর্শিত বার্তা হিসাবে দেখা হয় যখন তারা অনুরোধ করা ওয়েবপৃষ্ঠা পুনরুদ্ধার করার সময় ত্রুটি ঘটে।  সার্ভারে ত্রুটি দেখা দিলে ত্রুটি বার্তাও প্রদর্শিত হয়।  সর্বাধিক সাধারণ ত্রুটিগুলি হ'ল- 1) 404 পাওয়া যায় না যখন অনুরোধ করা URL টি ওয়েব সার্ভারে পাওয়া যায় না displayed  কারণগুলি হতে পারে- ক) লিঙ্কটি ওয়েবে বিদ্যমান নেই।  খ) পৃষ্ঠাটি সরানো হয়েছে বা পুনরায় নামকরণ করা হয়েছে।  গ) ইউআরএল টাইপ করার সময় ব্যবহারকারী ভুল করেছিলেন।  2) 403 নিষিদ্ধ প্রদর্শন করা হয় যখন ব্যবহারকারী কোনও পৃষ্ঠার জন্য অনুরোধ করেন যখন তার পক্ষে অনুমোদিত নয়, যে পৃষ্ঠাগুলি সাধারণ ব্যবহারকারীদের অ্যাক্সেসের অনুমতি নেই।  3) সার্ভারটি অনুপলব্ধ বা অতিরিক্ত লোড বা ডাউন থাকাকালীন 503 পরিষেবা উপলব্ধ নয়।  কাস্টম ত্রুটি পৃষ্ঠাটি হ'ল ত্রুটি পৃষ্ঠা (সাইটের এই থিম এবং ডিজাইনের সাথে মিল রয়েছে) সাইটে ত্রুটির প্রতিক্রিয়া দেখা যাচ্ছে।

SEO



Question: ROBOTS.TXT FILE

Answer: The robots.txt protocol, also known as Robots Exclusion Protocol, is a file which informs the search engine not to crawl or index the file mentioned. This file is used to restrict the indexing of admin panel and other private information placed on the site. The robots.txt file can be written in any way according to the requirement:- 1) Here * specifies all the robots. The above syntax allows the bots to crawl all the files. User-agent: * Disallow: 2) This sitemap restricts all the robots from indexing the site. User-agent: * Disallow: / 3) The example below restricts the bots from indexing the three directories mentioned. User-agent: * Disallow: /cgi-bin/ Disallow: /tmp/ Disallow: /junk/ 4) This example restricts the bots from only indexing only the directory mentioned. User-agent: * Disallow: /directory/file.html 5) We can also select the bot we do not to index our site. User-agent:BadBot #replace 'BadBot' with the actual user-agent of the bot Disallow: / 6) We can also restrict a specific bot from indexing specific files. User-agent:BadBot# replace 'BadBot' with the actual user-agent of the bot Disallow: /junk/ Name of some of the bots of Google are- googlebot ( all services), googlebot-news ( bot for news), baiduspider, bingbot, yandexbot, etc.

বাংলা অনবাদ ঃ

প্রশ্ন: রোবটস.টিএক্সটি ফাইল

উত্তর: রোবটস টেক্সট প্রোটোকল, যা রোবটস এক্সক্লুশন প্রোটোকল নামেও পরিচিত, একটি ফাইল যা অনুসন্ধান ইঞ্জিনকে উল্লিখিত ফাইলটি ক্রল বা সূচী না করাকে অবহিত করে।  এই ফাইলটি অ্যাডমিন প্যানেল এবং সাইটে থাকা অন্যান্য ব্যক্তিগত তথ্যের সূচকে সীমাবদ্ধ করতে ব্যবহৃত হয়।  প্রয়োজন অনুসারে রোবটসটিটিএসটি ফাইল কোনওভাবে লেখা যেতে পারে: - ১) এখানে * সমস্ত রোবট নির্দিষ্ট করে।  উপরের সিনট্যাক্সটি বটগুলিকে সমস্ত ফাইল ক্রল করার অনুমতি দেয়।  ব্যবহারকারী-এজেন্ট: * অস্বীকার করুন: 2) এই সাইটম্যাপটি সমস্ত রোবটগুলিকে সাইটের সূচিকরণ থেকে সীমাবদ্ধ করে।  ব্যবহারকারী-এজেন্ট: * অস্বীকার করুন: / 3) নীচের উদাহরণটি উল্লিখিত তিনটি ডিরেক্টরিকে সূচীকরণ থেকে বটগুলিকে সীমাবদ্ধ করে।  ব্যবহারকারী-এজেন্ট: * অনুমতি বাতিল / / সিজি-বিন / বাতিল / / টিএমপি / বাতিল: / জাঙ্ক / 4) এই উদাহরণটি কেবল উল্লিখিত ডিরেক্টরিটিকে কেবল সূচীকরণ থেকে বটকে সীমাবদ্ধ করে।  ব্যবহারকারী-এজেন্ট: * অনুমতি বাতিল / / ডিরেক্টরি / ফায়াল এইচটিএমএল 5) আমরা আমাদের বুকটিও আমাদের সাইটকে সূচি না করতে বেছে নিতে পারি।  ব্যবহারকারী-এজেন্ট: ব্যাডের প্রকৃত ব্যবহারকারী-এজেন্টের সাথে ব্যাডবট # রিপ্লেস 'ব্যাডবট' বাতিল করুন: /)) আমরা নির্দিষ্ট ফাইলগুলি সূচীকরণ থেকে একটি নির্দিষ্ট বটকেও সীমাবদ্ধ করতে পারি।  ব্যবহারকারী-এজেন্ট: ব্যাডবোট # বটটির প্রকৃত ব্যবহারকারী-এজেন্টের সাথে 'ব্যাডবট' প্রতিস্থাপন করুন বাতিল করুন: / জাঙ্ক / গুগলের কিছু বটের নাম হ'ল- গুগলবট (সমস্ত পরিষেবা), গুগলবট-নিউজ (সংবাদের জন্য বট), বৈদুস্পিকার  , বিংবোট, ইয়ানডেক্সবোট ইত্যাদি

SEO


Question: CREATION OF SITEMAP (IN XML)

Answer: The XML sitemap can be generated using online tools. Once the xml sitemap is generated, it looks something like this. The code consists of xml tags. The code is in written in between the “urlset” tags.
It includes-
1) The “url” tag contains the URL entries.
2) The URL of the page in “loc” tag.
3) The time (yearly, monthly, weekly or daily) when that page is likely to be modified.
4) The time when the page was last updated in “lastmod” tag.
5) The priority of the mentioned URL relative to other URL present in the site under “priority” tag.
The priority tag, lastmod tag, and the changefreq tag are optional i.e. you can choose whether have them mentioned or not in the sitemap. But the sitemap must contain the “loc” tag


বাংলা অনুবাদ ঃ

প্রশ্ন: সাইটম্যাপের ক্রিয়েশন (ইন এক্সএমএল)
উত্তর: এক্সএমএল সাইটম্যাপ অনলাইন সরঞ্জাম ব্যবহার করে তৈরি করা যেতে পারে।  এক্সএমএল সাইটম্যাপটি তৈরি হওয়ার পরে এটি এমন কিছু দেখাচ্ছে।  কোডটিতে এক্সএমএল ট্যাগ রয়েছে।  কোডটি "urlset" ট্যাগের মধ্যে লিখিত রয়েছে।
 এটা অন্তর্ভুক্ত-
 1) "url" ট্যাগটিতে ইউআরএল এন্ট্রি রয়েছে।
 2) পৃষ্ঠার URL টি "লোক" ট্যাগে।
 3) সময় (বার্ষিক, মাসিক, সাপ্তাহিক বা দৈনিক) যখন পৃষ্ঠাটি পরিবর্তিত হওয়ার সম্ভাবনা থাকে।
 4) পৃষ্ঠাটি সর্বশেষ "সর্বশেষ আধুনিক" ট্যাগে আপডেট হয়েছিল।
 5) উল্লিখিত ইউআরএলটির অগ্রাধিকারটি "অগ্রাধিকার" ট্যাগের অধীনে সাইটে উপস্থিত অন্যান্য ইউআরএলের তুলনায়।
 অগ্রাধিকার ট্যাগ, লাস্টমড ট্যাগ এবং চেঞ্জফ্রেইক ট্যাগ alচ্ছিক অর্থাত্ সাইটম্যাপে সেগুলির উল্লেখ আছে কিনা তা আপনি বেছে নিতে পারেন।  তবে সাইটম্যাপে অবশ্যই "লোক" ট্যাগ থাকা উচিত

SEO


Question: SITEMAP
Answer: A Sitemap is a list containing all the URL’s of the website.
There are two types of sitemap-
a) HTML Sitemap - HTML sitemap is a separate web page present on the site for easy user navigation. All the web pages are presented here in hierarchical manner.
b) XHTML Sitemap- These files are made for search engine, to provide them ease of crawling.
Sitemap (.XML) can be generated using online sitemap generators. There are number of xml sitemap generators present on the web. One of them is XML
Generator. Link: - http://www.xml-generator.com/

বাংলা অনুবাদ ঃ

প্রশ্ন: সাইটম্যাপ
উত্তর: সাইটম্যাপ ওয়েবসাইটের সমস্ত ইউআরএল রয়েছে এমন একটি তালিকা।
 সাইটম্যাপ দুই ধরণের রয়েছে-
 ক) এইচটিএমএল সাইটম্যাপ - এইচটিএমএল সাইটম্যাপ সহজ ব্যবহারকারী নেভিগেশনের জন্য সাইটে একটি পৃথক ওয়েব পৃষ্ঠা।  সমস্ত ওয়েব পৃষ্ঠাগুলি এখানে শ্রেণিবদ্ধ পদ্ধতিতে উপস্থাপন করা হয়েছে।
 খ) এক্সএইচটিএমএল সাইটম্যাপ- এই ফাইলগুলি ক্রলিংয়ের সহজতা প্রদানের জন্য সার্চ ইঞ্জিনের জন্য তৈরি।
 অনলাইন সাইটম্যাপ জেনারেটর ব্যবহার করে সাইটম্যাপ (.XML) তৈরি করা যায়।  ওয়েবে অনেকগুলি এক্সএমএল সাইটম্যাপ জেনারেটর উপস্থিত রয়েছে।  এর মধ্যে একটি হ'ল এক্সএমএল
 জেনারেটর।  লিঙ্ক: - http://www.xML-generator.com/

SEO

  It sounds like you're interested in SEO! SEO (Search Engine Optimization) is the process of improving the visibility and ranking of a ...