Back to Question Center
0

Semalt एक्सपर्ट: जुन्या साइटमॅप्स क्रॉल करण्यापासून Google ला रोखण्यासाठी मार्गदर्शक

1 answers:

आपली वेबसाइट वाढत असल्याने, आपण इंटरनेटवरील त्याची दृश्यमानता आणि विश्वासार्हता सुधारण्याचे मार्ग शोधण्याचा प्रयत्न करू. कधीकधी, कामाच्या ठिकाणी वापरल्या जाणाऱ्या साइट्सचे परिणाम मागेच राहतात, आणि इथेच आपल्याला लक्ष द्यावे लागते.

जुन्या साइट क्रॉल करण्यापासून Google ला रोखण्याकरिता, Semaltट च्या ग्राहक यशस्वी व्यवस्थापकाचे, Max Bell च्या पुढील टिप्स पर्यंत खाली जा.

काही आठवड्यांपूर्वी माझ्या एका क्लायंटने मला सांगितले की त्यांच्याकडे ई-कॉमर्स वेबसाइट आहे. हे विविध बदलांमधून गेले: URL संरचनापासून साइटमॅपपर्यंत, साइटला अधिक दृश्यमान करण्यासाठी प्रत्येक गोष्ट सुधारित केली गेली - app fuer ipad entwickeln.

ग्राहकाने त्यांच्या Google Search Console मध्ये काही बदल पाहिले आणि तेथे क्रॉल त्रुट्या आढळल्या. त्यांनी किती मोठी जुनी आणि नवीन यूआरएल तयार केली हे उघड झाले आहे. त्यापैकी काही, प्रवेश नाकारण्यात येत दर्शवणारे होते 403 आणि आढळले नाही 404 त्रुटी.

माझ्या ग्राहकाने मला सांगितले की त्याच्याकडे असलेली सर्वात मोठी समस्या जुनी साइटमॅप होती जी मूळ फोल्डरमध्ये अस्तित्वात होती. त्याच्या संकेतस्थळाने Google एक्सप्लोरर साइटमॅप्स प्लगइन्सची विविधता पूर्वी वापरली होती, परंतु आता तो साइटमॅपसाठी Yoast द्वारे वर्डप्रेस एसईओवर अवलंबून होता. अनेक जुन्या साइटमॅप प्लगइनने त्याच्यासाठी एक गोंधळ निर्माण केला. ते मूळ फोल्डरमध्ये 'sitemap.xml.gz' म्हणून उपस्थित होते. त्याने सर्व पोस्ट्स, पृष्ठे श्रेणी आणि टॅग्जसाठी साइटमॅप तयार करण्यासाठी Yoast plugins चा वापर सुरू केल्यापासून त्याला त्या प्लगिनची आवश्यकता नाही. दुर्दैवाने, व्यक्तिने sitemap.xml सादर केले नाही..Google सर्च कन्सोलवर gz. त्याने फक्त आपल्या Yoast साइटमॅप सबमिट केला होता आणि Google त्याच्या जुन्या साइटमॅपही क्रॉल करत होता.

काय क्रॉल करावे?

व्यक्तीने मूळ साइटमॅप मूळ फोल्डरमधून हटविले नाही, त्यामुळे ती अनुक्रमितही झाली होती. मी त्यांच्याकडे परत आलो आणि स्पष्ट केले की साइटमॅप केवळ शोध इंजिन परिणामांमध्ये क्रॉल पाहिजे असा सल्ला दिला जातो. आपण कदाचित असा विचार करता की जुन्या साइटमॅप्स हटविणे Google ला निलंबित URL क्रॉल करणे बंद करेल, परंतु हे सत्य नाही. माझे अनुभव असे म्हणतात की प्रत्येक दिवसातील अनेक वेळा यूआरएलला गुगलने नेहमीच निर्देशित करण्याचा प्रयत्न केला आहे, याची खात्री करुन की 404 त्रुटी खरा आहे आणि दुर्घटना नाही.

Googlebot आपल्या साइटच्या साइटमॅपमध्ये सापडणारे जुने आणि नवीन दुवे संचयित करू शकेल. हे नियमितपणे आपल्या वेबसाइटवर भेट देते, प्रत्येक पृष्ठ योग्यरित्या अनुक्रमित केले आहे हे सुनिश्चित करून. Googlebot हे दुवे वैध किंवा अवैध असल्याबाबत मूल्यमापन करण्याचा प्रयत्न करते जेणेकरून अभ्यागतांना कोणत्याही समस्या येत नाहीत.

हे स्पष्ट आहे की जेव्हा त्यांच्या क्रॉल त्रुट्यांची संख्या वाढते तेव्हा वेबमास्टर्स गोंधळतील. ते सर्व काही थोड्या प्रमाणात कमी करायचे आहेत. सर्व जुन्या साइटमॅप्सकडे दुर्लक्ष करण्यासाठी Google ला कसे कळवावे? आपण सर्व अवांछित आणि विचित्र साइटमॅप क्रॉलला मारून तसे करू शकता. पूर्वी, ते शक्य करण्यासाठी एकमेव मार्ग .htaccess फाइल्स होते. काही प्लगइन आम्हाला प्रदान करण्यासाठी वर्डप्रेस धन्यवाद.

वर्डप्रेस वेबसाइट्सना ही फाईल त्यांच्या मूळ फोल्डर्समध्ये आहे. म्हणून, आपण केवळ FTP मध्ये प्रवेश करणे आणि CPANEL मध्ये लपविलेल्या फायली सक्षम करणे आवश्यक आहे. आपल्या आवश्यकतेनुसार ही फाइल संपादित करण्यासाठी फाइल व्यवस्थापक पर्यायावर जा. आपण चुकून आपल्या साइटला हानी पोहोचवू शकेल हे विसरू नये, म्हणून आपण नेहमी सर्व डेटाचा बॅकअप घेतला पाहिजे.

एकदा आपण फाईलमध्ये स्निपेट जोडल्यानंतर, सर्व कालबाह्य केलेल्या URL, कोणत्याही वेळेस आपल्या क्रॉल त्रुटींवरून अदृश्य होतील. आपण हे विसरू नये की Google 404 त्रुटींच्या शक्यता कमी करेल अशी अपेक्षा आपण आपल्या साइटवर ठेवू.

November 29, 2017