Robots.txt ভ্যালিডেটর
robots.txt নিয়মের বিরুদ্ধে URL গুলি যাচাই করুন। নির্দিষ্ট ব্যবহারকারী-এজেন্টগুলির জন্য একটি URL অনুমোদিত বা অনুমোদিত কিনা তা পরীক্ষা করুন, ক্রল বিলম্ব দেখুন এবং সাইটম্যাপ রেফারেন্স খুঁজুন।
ইনপুট
আউটপুট
রিডমি
robots.txt কি?
Robots.txt একটি টেক্সট ফাইল যা ওয়েবসাইটগুলি তাদের রুট ডিরেক্টরিতে রাখে ওয়েব ক্রলার এবং সার্চ ইঞ্জিন বটগুলির সাথে যোগাযোগ করার জন্য। এটি এই স্বয়ংক্রিয় দর্শকদের বলে যে তারা সাইটের কোন পৃষ্ঠা বা বিভাগে অ্যাক্সেস করতে পারে বা পারে না। এই ফাইলটি Robots Exclusion Protocol অনুসরণ করে, একটি মান যা সাইট মালিকদের তাদের কন্টেন্ট সার্চ ইঞ্জিন দ্বারা কীভাবে ইন্ডেক্স করা হয় এবং ওয়েব স্ক্র্যাপার দ্বারা অ্যাক্সেস করা হয় তা নিয়ন্ত্রণ করতে সাহায্য করে।
যখন একটি সার্চ ইঞ্জিন বট একটি ওয়েবসাইট পরিদর্শন করে, এটি প্রথমে robots.txt ফাইল খোঁজে। এই ফাইলের নির্দেশনার উপর ভিত্তি করে, বটটি জানে যে এটি নির্দিষ্ট URL ক্রল করার অনুমতি পেয়েছে কিনা, অনুরোধের মধ্যে কত বিলম্ব অপেক্ষা করা উচিত, এবং আরও দক্ষ ক্রলিংয়ের জন্য XML sitemap কোথায় খুঁজে পাবে।
টুল বর্ণনা
Robots.txt Validator একটি অনলাইন টুল যা আপনাকে robots.txt নিয়মগুলি নির্দিষ্ট URL-এ কীভাবে প্রয়োগ করা হয় তা পরীক্ষা এবং যাচাই করতে সাহায্য করে। এই robots txt parser আপনাকে robots.txt কন্টেন্ট পেস্ট করতে, আপনি যে URL পরীক্ষা করতে চান তা প্রবেশ করতে এবং একটি user-agent নির্দিষ্ট করতে দেয় (যেমন Googlebot, Bingbot, বা সমস্ত বটের জন্য wildcard "*")। Robots txt validator টুল তাৎক্ষণিকভাবে আপনাকে বলবে যে সেই URL নির্দিষ্ট ক্রলারের জন্য অনুমোদিত বা অনুমোদিত নয়, যা উৎপাদনে স্থাপনের আগে আপনার robots txt ফাইল পরীক্ষা করা সহজ করে তোলে।
বৈশিষ্ট্যসমূহ
- URL যাচাইকরণ: robots.txt নিয়ম অনুযায়ী একটি নির্দিষ্ট URL একটি নির্দিষ্ট user-agent এর জন্য অ্যাক্সেসযোগ্য কিনা তা পরীক্ষা করুন
- User-Agent পরীক্ষা: একই URL এর বিপরীতে বিভিন্ন user-agent (সার্চ ইঞ্জিন বট) পরীক্ষা করুন
- অনলাইন Parser: কোনো ইনস্টলেশন বা নিবন্ধন ছাড়াই এই robots txt validator অনলাইন ব্যবহার করুন
- Crawl Delay সনাক্তকরণ: robots.txt ফাইলে নির্দিষ্ট থাকলে স্বয়ংক্রিয়ভাবে crawl delay সেটিংস প্রদর্শন করে
- Sitemap আবিষ্কার: robots.txt ফাইলে উল্লেখ করা সমস্ত sitemap URL প্রদর্শন করে
- রিয়েল-টাইম Parsing: robots.txt কন্টেন্ট টাইপ বা সংশোধন করার সাথে সাথে তাৎক্ষণিক যাচাইকরণ
- স্পষ্ট ফলাফল: অ্যাক্সেস অনুমোদিত বা অনুমোদিত নয় তা দেখানো ভিজ্যুয়াল সূচক
ব্যবহারের ক্ষেত্র
- SEO পেশাদাররা: যাচাই করুন যে গুরুত্বপূর্ণ পৃষ্ঠাগুলি সার্চ ইঞ্জিন থেকে দুর্ঘটনাক্রমে ব্লক করা হয়নি এবং লাইভ হওয়ার আগে আমার robots txt ফাইল পরীক্ষা করুন
- ওয়েব ডেভেলপাররা: এই robots txt validator টুল ব্যবহার করে উৎপাদনে স্থাপনের আগে robots.txt কনফিগারেশন পরীক্ষা করুন
- কন্টেন্ট ম্যানেজাররা: নিশ্চিত করুন যে একটি ওয়েবসাইটের নির্দিষ্ট বিভাগ ক্রলারদের কাছে সঠিকভাবে সুরক্ষিত বা উন্মুক্ত
- সাইট অডিটররা: লাইভ ওয়েবসাইট অ্যাক্সেস না করে দ্রুত পরীক্ষা করুন যে একটি URL ক্রল করা যায় কিনা
- বট ম্যানেজমেন্ট: বিভিন্ন সার্চ ইঞ্জিন ক্রলারদের জন্য বিভিন্ন নিয়ম কনফিগার এবং পরীক্ষা করুন