मैंने Google खोज कंसोल से संपत्ति (वेबसाइट) को हटा दिया। इसका उद्देश्य खोज इंजन परिणामों से वेबसाइट को हटाना था। क्या ऐसा होगा?

  • इसे भी देखें: Google खोज कंसोल में किसी संपत्ति को हटाने के क्या परिणाम हैं?

आपकी वेबसाइट को सर्च कंसोल से हटाने से आपकी वेबसाइट उनके अनुक्रमित से नहीं हटेगी। एक बार जब आपकी साइट को अनुक्रमित किया जाता है, तो यह तब तक अनुक्रमित रहेगा जब तक कि कोई मौजूदा नहीं है।

अस्थायी हटाने

यदि आप अपनी वेबसाइट को उनके अनुक्रमित से निकालना चाहते हैं, तो URL हटाने वाले टूल का उपयोग करें। लेकिन, यह केवल अस्थायी है।

बहुत महत्वपूर्ण नोट:

  • एक सफल अनुरोध केवल 90 दिनों तक रहता है। उसके बाद, आपकी जानकारी Google खोज परिणामों पर दिखाई दे सकती है (स्थायी हटाना देखें)।
  • कैश साफ़ करना या URL छिपाना Googlebot के क्रॉल शेड्यूल या पेज कैशिंग व्यवहार को नहीं बदलता है। जब आप किसी URL के अस्थायी ब्लॉक का अनुरोध करते हैं, तब भी Google आपके URL को क्रॉल करना जारी रखेगा, यदि यह मौजूद है और किसी अन्य विधि (जैसे कि noindex टैग) द्वारा अवरुद्ध नहीं है। इस वजह से, यह संभव है कि आपके पृष्ठ को हटाने या पासवर्ड से बचाने से पहले आपके पृष्ठ को फिर से क्रॉल और कैश किया जा सकता है, और आपके अस्थायी ब्लैकआउट समाप्त होने के बाद खोज परिणामों में दिखाई दे सकता है।
  • यदि आपका URL Googlebot द्वारा अप्राप्य हो जाता है, तो यह मान लेगा कि पृष्ठ चला गया है और आपका ब्लॉक अनुरोध समाप्त हो जाएगा। बाद में उस URL पर पाया गया कोई भी पृष्ठ माना जाएगा नया पृष्ठ जो Google खोज परिणामों में दिखाई दे सकता है।

हटाने को स्थायी बनाना

URL निष्कासन उपकरण केवल a प्रदान करता है अस्थायी निष्कासन। Google खोज से सामग्री या URL को स्थायी रूप से हटाने के लिए आपको निम्नलिखित अतिरिक्त क्रियाओं में से एक या एक से अधिक लेना होगा:

  • अपनी साइट से वास्तविक सामग्री निकालें या अपडेट करें (चित्र, पृष्ठ, निर्देशिका) और सुनिश्चित करें कि आपका वेब सर्वर 404 (नहीं मिला) या 410 (गया) HTTP स्थिति कोड लौटाता है। गैर- HTML फ़ाइलें (जैसे PDF) आपके सर्वर से पूरी तरह से हटा दी जानी चाहिए।
  • सामग्री तक पहुंच अवरुद्ध करें, उदाहरण के लिए पासवर्ड की आवश्यकता होती है।
  • संकेत दें कि पृष्ठ को अनुक्रमित नहीं किया जाना चाहिए noindex मेटा टैग का उपयोग करना।
  • 1 Robots.txt "वेब पेज को Google से बाहर रखने के लिए एक तंत्र नहीं है"
  • 1 संपादित @MaximillianLaumeister सही करने के लिए।
  • @MaximillianLaumeister ओपी, मेरा मानना ​​है, शायद अभी भी पेज उपयोगकर्ताओं द्वारा देखे जा सकते हैं और मुझे 404 या 410 की सिफारिश क्यों पसंद नहीं है। ओपी यह स्पष्ट नहीं करता है। ये उन पृष्ठों के लिए आरक्षित हैं जो वास्तव में चले गए हैं या अस्थायी रूप से चले गए हैं और उपयोगकर्ताओं के लिए साइट के संचालन में हस्तक्षेप करेंगे। यदि पृष्ठ वास्तव में चले गए हैं, तो मैं एक 410 की सिफारिश करता हूं यदि संभव हो तो। एक 404 हमेशा के लिए लेता है और वास्तव में SERPs को कभी नहीं छोड़ सकता है।

Google कंसोल से कोई प्रॉपर्टी हटाने से केवल वेबसाइट Google कंसोल से निकाल दी जाती है।

मुझे यकीन नहीं है कि आपका लक्ष्य क्या है, हालांकि, आप अपनी वेबसाइट को Google से निकालने के लिए robots.txt का उपयोग कर सकते हैं, उदाहरण के लिए, ...

User-agent: Googlebot Disallow: / 

... या सभी खोज इंजनों का उपयोग करना

User-agent: * Disallow: / 

प्रत्येक खोज इंजन का अपना बॉट नाम है, उदाहरण के लिए, बिंग बिंगबॉट है।

User-agent: bingbot Disallow: / 

Robots.txt आपकी वेबसाइट के मूल में एक साधारण पाठ फ़ाइल है। यह example.com/robots.txt या www.example.com/robots.txt के रूप में उपलब्ध होना चाहिए।

आप robots.txt के बारे में robots.org पर पढ़ सकते हैं

बड़े सर्च इंजन बॉट / स्पाइडर नामों की सूची शीर्ष सर्च इंजन बॉट नामों में पाई जा सकती है।

Robots.txt फ़ाइल और उचित बॉट नाम का उपयोग करना आमतौर पर किसी खोज इंजन से वेबसाइट हटाने का सबसे तेज़ तरीका है। एक बार जब खोज इंजन robots.txt फ़ाइल को पढ़ लेता है, तो वेबसाइट को लगभग 2 या इतने दिनों के भीतर हटा दिया जाएगा जब तक कि हाल ही में चीजें बदल नहीं गई हों। Google 1-2 दिनों के भीतर साइटों को छोड़ देता था। प्रत्येक खोज इंजन अलग है और प्रत्येक की जवाबदेही अलग-अलग हो सकती है। कृपया जान लें कि बड़े सर्च इंजन काफी संवेदनशील होते हैं।

टिप्पणियों को संबोधित करने के लिए।

Robots.txt वास्तव में खोज इंजन द्वारा उपयोग किया जाता है ताकि यह पता चल सके कि किन पृष्ठों को अनुक्रमित किया जाना है। यह अच्छी तरह से जाना जाता है और समझा जाता है और 1994 से एक वास्तविक मानक है।

Google कैसे काम करता है

Google अन्य डेटा के बीच लिंक, डोमेन, URL और पृष्ठ सामग्री को अनुक्रमित करता है।

लिंक तालिका का उपयोग नई साइटों और पृष्ठों को खोजने के लिए और पेजरैंक एल्गोरिथ्म का उपयोग करके पृष्ठों को रैंकिंग करने के लिए किया जाता है जो कि ट्रस्ट नेटवर्क मॉडल पर आधारित है।

URL तालिका का उपयोग लिंक और पृष्ठों के बीच एक सम्मिलित तालिका के रूप में किया जाता है।

यदि आप SQL डेटाबेस स्कीमा जानते हैं,

लिंक तालिका कुछ इस तरह होगी: लिंकआईडी लिंकटेक्स्ट लिंकस्रोएसयूएलआईडी लिंकटैरगेट यूआरआईडी

डोमेन तालिका कुछ इस प्रकार होगी: domainID urlID domainage domainIP domainRegistrar domainRegistrantName ...

URL तालिका कुछ इस प्रकार होगी: urlID urlURL

पेज टेबल कुछ इस तरह होगी: पेजआईडी urlID पेजटाइट पेजडेसक्रिप्शन पेजएचटीएमएल

यूआरएल तालिका डोमेन, लिंक और पृष्ठों के बीच एक सम्मिलित तालिका है।

पेज इंडेक्स का इस्तेमाल इंडिविजुअल पेजों की सामग्री और इंडेक्स को समझने के लिए किया जाता है। अनुक्रमणिका केवल एक SQL तालिका की तुलना में कहीं अधिक जटिल है, हालांकि, चित्रण अभी भी खड़ा है।

जब Google किसी लिंक का अनुसरण करता है, तो लिंक को लिंक तालिका में डाल दिया जाता है। यदि URL URL तालिका में नहीं है, तो उसे URL तालिका में जोड़ दिया जाता है और उसे भ्रूण कतार में भेज दिया जाता है।

जब Google पृष्ठ को प्राप्त करता है, तो Google यह देखने के लिए देखता है कि क्या robots.txt फ़ाइल पढ़ी गई है और यदि ऐसा है, तो यह 24 घंटों के भीतर पढ़ी गई है। यदि कैश किया गया robots.txt डेटा 24 घंटे से अधिक पुराना है, तो Google फिर से robots.txt फ़ाइल प्राप्त करता है। यदि कोई पेज robots.txt द्वारा प्रतिबंधित है, तो Google पृष्ठ को अनुक्रमणित नहीं करेगा या यदि पहले से मौजूद है तो पृष्ठ को अनुक्रमणिका से हटा देगा।

जब Google robots.txt में एक प्रतिबंध देखता है, तो इसे प्रसंस्करण के लिए एक कतार में जमा किया जाता है। प्रसंस्करण एक बैच शैली प्रक्रिया के रूप में रात में शुरू होता है। पैटर्न सभी यूआरएल से मेल खाता है और सभी पेज यूआरएल आईडी का उपयोग करके पेज टेबल से हटा दिए जाते हैं। URL को हाउसकीपिंग के लिए रखा गया है।

पृष्ठ लाए जाने के बाद, पृष्ठ को पृष्ठ तालिका में डाल दिया जाता है।

लिंक टेबल के भीतर कोई भी लिंक, जिसे प्राप्त नहीं किया गया है, या robots.txt द्वारा प्रतिबंधित है, या 4xx त्रुटि के साथ टूटी हुई लिंक है, इन्हें लटकने वाले लिंक के रूप में जाना जाता है। और जब पीआर को गणना लिंक के लक्ष्य पृष्ठों के लिए ट्रस्ट नेटवर्क सिद्धांत का उपयोग करके गणना की जा सकती है, तो पीआर को इन पृष्ठों के माध्यम से पारित नहीं किया जा सकता है।

लगभग 6 साल पहले, Google ने महसूस किया कि SERPs में लिंकिंग झूलों को शामिल करना बुद्धिमान था। यह तब किया गया था जब Google ने पूरे वेब पर आक्रामक रूप से कब्जा करने के लिए इसे सूचकांक और सिस्टम को फिर से डिज़ाइन किया था। इसके पीछे सोचा उपयोगकर्ताओं को मान्य खोज परिणाम प्रस्तुत करना था, भले ही पृष्ठ खोज इंजन से प्रतिबंधित हो।

यदि किसी शब्दार्थक मूल्य का URL बहुत कम है।

लिंक का कुछ अर्थ मूल्य होता है, हालाँकि, यह मान थोड़ा कम रहता है क्योंकि शब्दार्थ अनुक्रमण अधिक पाठ को पसंद करता है और एक स्टैंडअलोन तत्व के रूप में अच्छा प्रदर्शन नहीं कर सकता है। आमतौर पर, लिंक के शब्दार्थिक मूल्य को स्रोत पृष्ठ (लिंक के साथ पृष्ठ) के शब्दार्थक मान और लक्ष्य पृष्ठ के शब्दार्थ मान के साथ मापा जाता है।

परिणामस्वरूप, किसी भी झूलते लिंक के लक्ष्य पृष्ठ का कोई भी URL अच्छी तरह से रैंक नहीं कर सकता है। अपवाद नए खोजे गए लिंक और पृष्ठों के लिए है। नीति के अनुसार, Google खोजे गए लिंक और पृष्ठों को SERPs के भीतर "स्वाद" लेना पसंद करता है, जो PR मानों को डिफ़ॉल्ट रूप से काफी पाया जाता है और जिन्हें SERPs के भीतर पाया और परखा जाता है। समय के साथ, पीआर और सीटीआर को लिंक और पृष्ठों को रखने के लिए मापा और समायोजित किया जाता है जहां उन्हें मौजूद होना चाहिए।

ROBOTS.TXT प्रदर्शन देखें: 20 साल की गलतियों से बचने के लिए जहां रैंकिंग के रूप में मैंने वर्णित किया है पर भी चर्चा की गई है।

SERPs में लिस्टिंग लिंक को गुमराह किया गया है और कई लोगों ने इसके बारे में शिकायत की है। यह उदाहरण के लिए, टूटे हुए लिंक और लॉगइन या पेवॉल के पीछे के लिंक वाले SERPs को प्रदूषित करता है। Google ने इस अभ्यास को नहीं बदला है, हालांकि, रैंकिंग तंत्र SERPs के लिंक को प्रभावी ढंग से SERPs से पूरी तरह से हटाने के लिए फ़िल्टर करते हैं।

याद रखें कि इंडेक्सिंग इंजन और क्वेरी इंजन दो अलग-अलग चीजें हैं।

Google उन पृष्ठों के लिए noindex का उपयोग करने की अनुशंसा करता है जो हमेशा संभव या व्यावहारिक नहीं होते हैं। मैं नोइंडेक्स का उपयोग करता हूं, हालांकि, स्वचालन का उपयोग करने वाली बहुत बड़ी वेबसाइटों के लिए, यह असंभव या कम से कम बोझिल हो सकता है।

मेरे पास लाखों पृष्ठों वाली एक वेबसाइट थी जिसे मैंने गोगल्स इंडेक्स से हटा दिया था।

और जबकि Google robots.txt फ़ाइल का उपयोग करने और इसके बजाय noindex का उपयोग करने के खिलाफ तर्क देता है, यह बहुत धीमी प्रक्रिया है। क्यों? क्योंकि Google एक टीटीएल शैली मीट्रिक का उपयोग करता है यह सूचकांक में है जो यह निर्धारित करता है कि Google उस पृष्ठ पर कितनी बार आता है। यह एक वर्ष या उससे अधिक तक की लंबी अवधि हो सकती है।

Noindex का उपयोग करना URL को SERPs से नहीं हटाता है जिस प्रकार robots.txt नहीं करता है। अंतिम परिणाम वही रहता है। Noindex, जैसा कि यह पता चला है, वास्तव में, वास्तव में robots.txt फ़ाइल का उपयोग करने से बेहतर नहीं है। दोनों एक ही प्रभाव उत्पन्न करते हैं, जबकि robots.txt फ़ाइल रेंडरर्स तेजी से और बल्क में परिणाम देता है।

और यह, इस भाग में, robots.txt फ़ाइल का बिंदु है। यह व्यापक रूप से स्वीकार किया जाता है कि लोग अपनी वेबसाइट के सभी अनुभागों को पूरी तरह से ब्लॉक कर देंगे। यह पूरी तरह से साइट से robots.txt या ब्लॉक बॉट का उपयोग करेगा। यह noindex को पृष्ठों में जोड़ने की तुलना में अधिक सामान्य अभ्यास है।

Robots.txt फ़ाइल का उपयोग करके पूरी साइट को हटाना अभी भी सबसे तेज़ तरीका है, भले ही Google इसे पसंद न करे। Google ईश्वर नहीं है और न ही यह वेबसाइट न्यू न्यू टेस्टामेंट है। Google जितना कठिन प्रयास करता है, यह अभी भी दुनिया पर राज नहीं करता है। बहुत पास है, लेकिन अभी तक नहीं।

दावा है कि एक खोज इंजन को robots.txt के प्रभाव में रोककर खोज इंजन को एक noindex मेटा टैग देखने से रोकता है, यह पूरी तरह से बकवास है और तर्क की अवहेलना करता है। इस तर्क को आप हर जगह देखते हैं। दोनों तंत्र, वास्तव में एक ही हैं, थोक प्रसंस्करण के परिणामस्वरूप एक को छोड़कर बहुत तेज है।

ध्यान रखें कि robots.txt मानक को 1994 में अपनाया गया था जबकि 1996 में noindex मेटा टैग को 1997 में Google द्वारा भी अपनाया जाना बाकी था। शुरुआती दिनों में, खोज इंजन से एक पृष्ठ को हटाने के लिए, जिसका उपयोग robots.txt द्वारा किया गया था फ़ाइल और काफी समय तक बनी रही। Noindex पहले से मौजूद प्रक्रिया के लिए एक ऐड-ऑन है।

Robots.txt एक सर्च इंजन इंडेक्स और संभावना को सीमित करने के लिए नंबर 1 तंत्र बना हुआ है और संभावना है कि जब तक मैं जीवित रहूंगा। (मैं बेहतर सड़क पार करने में सावधान रहना चाहता हूं। मेरे लिए कोई और स्काइडाइविंग नहीं है!)

  • Robots.txt "वेब पेज को Google से बाहर रखने के लिए एक तंत्र नहीं है"
  • @MaximillianLaumeister Google वास्तव में इसके इंडेक्स से पृष्ठों को गिरा देगा। इस पर कोई भ्रम नहीं है। हालाँकि, आप एक तरह से सही हैं। साइट के किसी भी लिंक को SERPs में एक अवधि के लिए परिलक्षित किया जाएगा लेकिन ये आम तौर पर लगभग 2 महीने के भीतर चले जाते हैं। Google के पास एक लिंक को खोजने के द्वारा SERPs में एक पृष्ठ को शामिल करने का एक अजीब सिद्धांत है। हममें से कई लोगों ने तर्क दिया है कि यह SERPs को प्रदूषित करता है और गुमराह करता है। Google कैसे काम करता है, यह जानने के बाद, जब Google किसी अज्ञात साइट का लिंक पाता है, तो यह साइट पर जाने से पहले उनके सूचकांक में एक लिंक बनाता है और SERPs में उस लिंक को दिखाता है। Google इसे सही करता था।
  • @MaximillianLaumeister मैंने प्रक्रिया को स्पष्ट करने के लिए समझाया कि robots.txt का उपयोग करना वास्तव में मेरे सुझाव के अनुसार काम करता है।
  • 1 मुझे क्षमा करें, लेकिन आपका उत्तर सही नहीं है। आपके द्वारा जोड़ा गया लेख (साथ ही जो लेख मैंने लिंक किया है) दोनों आपके उत्तर का खंडन करते हैं। आपके उत्तर से: "यह दावा है कि एक खोज इंजन को robots.txt के प्रभाव में रोककर खोज इंजन को एक noindex मेटा टैग देखने से रोकता है, यह पूरी तरह बकवास है।" लेकिन आपके लेख से: "robots.txt के माध्यम से URL को अस्वीकार करने से यह खोज परिणामों के पृष्ठों में खोजकर्ताओं द्वारा देखे जाने से नहीं रोकेगा। [...] URL को Google खोज परिणामों में प्रदर्शित होने से रोकने के लिए, URL क्रॉल करने योग्य होना चाहिए और इससे अस्वीकृत नहीं होना चाहिए। robots.txt। "।
  • @MaximillianLaumeister जैसा कहा जाता है, अक्सर किया गया दावा सरासर बकवास है। Robots.txt का उपयोग करना ठीक काम करता है और वास्तव में तेज़ है और खोज की सुबह से ही है। आंतरिक रूप से, जैसा कि मैंने इसका वर्णन किया है, noindex और robots.txt के लिए प्रक्रिया पैटर्न मैच बैच प्रक्रिया को छोड़कर बिल्कुल वैसी ही है, जो पैटर्न से मेल खाने वाले सभी पृष्ठों को एक बार में हटा देती है, उन्हें एक बार में हटाकर TTL शैली मीट्रिक के माध्यम से ले सकती है जो ले जा सकती है एक साल से भी अधिक। मैंने खोज के बहुत शुरुआती दिनों से इस पद्धति का उपयोग किया है। SERPs में लिंक दिखाने पर Google केवल सादा गलत-प्रधान है। यह डेटा में शोर है।

आप के लिए काम किया: Charles Robertson | हमसे संपर्क करना चाहते हैं?