برق. قدرت. کنترل. الکترونیک. مخابرات. تاسیسات.

دایره المعارف تاسیسات برق (اطلاعات عمومی برق)

دنیای وب منبع عظیمی از اطلاعات است که روز به ‌روز بر حجم آن افزوده می‌شود. در حال حاضر میلیاردها صفحه که اطلاعات فراوانی از موضوعات مختلف را در بر دارند، بر روی سرورهای مختلف جا خوش کرده اند. این در حالی است که تولد سایت های جدید و گسترش سایت های موجود نیز به طور فزاینده ای به حجم این اطلاعات می افزاید. نرخ رشد اطلاعات تا به آنجا رسیده که امروزه مشکل دسترسی به اطلاعات جدی تر از نبود اطلاعات است. امروزه چالش عمده اکثر کاربران، دستیابی به اطلاعات است. به عبارت دیگر اگر کاربری دنبال موضوعی خاص باشد، کدام صفحه را باید بخواند؟ از میان این تعداد عظیم صفحات موجود، کدامین صفحه نیاز او را برآورده می کند؟

اگر سایتی باشد که به کاربران در پیدا کردن اطلاعات کمک کند، قطعا مورد توجه خواهد بود. خوشبختانه چنین سایت هایی وجود دارد و ما آن ها را با نام موتور جستجوگر می شناسیم.

موتور جستجوگر سایتی است که برای کمک به کاربران در یافتن اطلاعات موجود از سایت های دیگر طراحی شده است. موتور جستجوگر سایتی است که با گرفتن کلمه یا عبارتی مختصر، کاربر را با لیستی از سایت ها روبرو می‌کند که به موضوع مورد علاقه او مرتبط می‌باشند.

آمارها نشان می دهند که افراد بسیاری سفر در دنیای وب را با موتورهای جستجوگر آغاز می‌کنند و مراجعه به موتورهای جستجوگر چنان عادی شده است که جستجو کردن و کار با موتورهای جستجوگر، دومین فعالیت عمده کاربران در دنیای وب (بعد از ارسال و دریافت نامه های الکترونیکی) محسوب می شود.

هر چه بر محبوبیت وب افزوده می گردد، نیاز به بایگانی کردن اطلاعات آن نیز بیشتر می‌شود. موتور جستجوگر در واقع این اطلاعات را بایگانی کرده و در زمان مورد نیاز، به سرعت در اختیار کاربران قرار می‌دهد. بدون موتور جستجوگر، وب تنها به بخش کوچکی از موفقیت امروزین خود دست می‌یافت زیرا موتور جستجوگر، اینترنت را به رسانه‌ای قابل استفاده برای همه تبدیل کرده است.در مورد موتورهای جستجو مقالات دیگری در تالار گفتگوی سایت میکرو رایانه وجود دارد.

آن چه که موتورهای جستجوگر انجام می دهند -با درجات متفاوتی از موفقیت- فراهم کردن یک وسیله جستجوی ساده است. وقتی یک کاربر وب عبارتی را جستجو می‌کند، موتور جستجوگر لیستی از سایت‌ ها را ارائه می‌کند که تعداد آنها از چند صد مورد تا چند میلیون متغیر می‌باشد.

سایت هایی که موتورجستجو به عنوان نتایج جستجویش ارائه می‌کند، بر حسب میزان ارتباط با عبارت جستجو شده به ترتیب نزولی لیست می‌شوند. به عبارت دیگر سایتی که به عنوان اولین سایت در نتایج جستجو معرفی شده است، مرتبط ترین سایت با عبارت جستجو شده از دید آن موتور جستجوگر است.

دقت در ارایه نتایج جستجو چیزی است که کاربران وب همواره از موتورهای جستجوگر می خواهند. هر چه نتایج جستجوی یک موتور جستجوگر دقیق تر و مرتبط تر باشد، محبوب تر خواهد بود و کاربران بیشتری به آن مراجعه خواهند کرد.

اگر عبارت یکسانی در تمام موتورهای جستجوگر، جستجو شود هیچ کدام از آنها نتایج یکسانی را ارائه نمی‌دهند و با نتایج کاملا متفاوتی روبرو می‌شویم. تفاوت در ارائه نتایج جستجو در موتورهای جستجوگر از تفاوت آنها در الگوریتم (سیستم رتبه بندی) و بایگانی داده‌ هایشان ناشی می‌شود. حتی اگر همه آنها از بایگانی داده یکسانی نیز استفاده کنند، بازهم نتایج جستجویشان متفاوت خواهد بود. هر موتور جستجوگری برای رده‌بندی صفحات وب، از الگوریتم خاصی استفاده می‌کند که منحصر به خودش بوده و فوق‌العاده محرمانه می‌باشد. الگوریتم نیز مجموعه ای از دستورالعمل ها است که موتور جستجوگر به کمک آن تصمیم می‌گیرد که سایت ها را چگونه در خروجی‌اش مرتب کند.

برای اینکه سایت ها با هم مقایسه شوند و بر حسب میزان ارتباط با موضوع جستجو شده، مرتب شوند، موتور جستجوگر، الگوریتم را بر مجموعه‌ای از پارامترها اعمال می‌کند. پارامترهای مورد توجه موتور جستجوگر نیز همانند الگوریتم آن ها ناشناخته می‌باشد و این ناشناخته ها جذابیت دنیای موتورهای جستجوگر را دو چندان می‌کنند.

اهمیت تجاری موتورهای جستجوگر

فعالان عرصه تجارت الکترونیک، آوردن بیننده به سایت را برای موفقیت در دنیای وب و تجارت آنلاین ضروری می دانند. فرقی نمی‌کند که سایت چه می‌فروشد و چه خدماتی ارایه می دهد: اگر سایتی به دنبال فروش کالا یا خدمات و کسب درآمد یا محبوبیت است، باید بیننده داشته باشد. تعداد بینندگان یک سایت، برگ برنده آن برای کسب موفقیت در دنیای وب می‌باشد. سایتی که بیننده ندارد، بدون شک مرگی آنلاین را تجربه می‌کند و چه بسیارند سایتهایی که هر روزه از چرخه زندگی در وب خارج می شوند!

مدیران و طراحان خبره وب به خوبی می دانند که فقط طراحی یک وب سایت تضمینی برای آمدن بیننده به آن نیست بلکه باید بینندگان را به طریقی به سایت جذب کرد. بینندگان تنها به دنبال رفع نیازهای اطلاعاتی خود می باشند و وظیفه ندارند به هر قیمتی که شده سایت شما را بیابند.

برای دعوت بینندگان به وب سایتتان چه تدابیری اندیشیده اید؟ چگونه دیگران بدانند که شما سایت پر محتوا و جذابی دارید؟ خود شما چگونه سایتهای دیگر را می یابید؟ بدون هیچ تردیدی باید گفت که ما در اغلب موارد به کمک موتورهای جستجوگر به آنچه که می خواهیم، دست می یابیم. اگر ما اینکار را انجام می دهیم، دیگران نیز دقیقا همین کار را می کنند: جستجوی چند عبارت در یکی از موتورهای جستجوگر و مراجعه به یکی از وب سایتها. ببینیم آمارها چه می گویند:

82 درصد کاربران اینترنت، موتورهای جستجوگر را ابزار اصلی خود برای یافتن وب سایتها عنوان کرده اند.
57 درصد از کاربران اینترنت هر روز جستجو می کنند و 46 درصد این جستجوها برای کالا یا خدمات است.
85 درصد ترافیک هدفمند را، موتورهای جستجوگر باعث می شوند.

همان گونه که آمارها نشان می‌دهند موتورهای جستجوگر ابزارهای مناسبی برای کمک به خریدران هستند که به کمک آنها، کالا یا خدمات مورد نیاز خود را پیدا می کنند. البته واقعیت این است که تنها رده‌های بالای نتایج جستجو مورد توجه کاربران قرار می گیرند و آنها بیشتر به سایت‌های لیست شده در این رتبه‌ها مراجعه می کنند.

بسیاری از کاربران دریافته اند که در اغلب موارد 10 رتبه اول نتایج جستجو می تواند خواسته آنها را برآورده کند و هنوز هم علاقه دارند که تنها 10 سایت اول در نتایج جستجو را مرور کنند. اما آمارها چه می گویند:

70 درصد از کاربران، به هنگام جستجو حتما یکی از سه سایت ابتدای نتایج جستجو را کلیک می کنند.
تنها 7 درصد از آنها سایتهای قرار گرفته در رتبه های بیستم به بعد را کلیک می کنند.

85 درصد از آنها اگر جوابی برای جستجوی خود در بیست نتیجه اول نتایج جستجو نیابند، موتور جستجوگر مورد استفاده خود را عوض می کنند.

33 درصد کاربران وب فکر می کنند سایتی که در ابتدای نتایج جستجو قرار دارد، در موضوع جستجو شده سرآمدتر از رقبای خود است و در آن موضوع پیشرو می باشد.

با دقت در این آمارها، اهمیت کسب رتبه‌های بالا در موتورهای جستجوگر روشن تر می‌شود. نکته مهم دیگر این که بینندگانی که موتورهای جستجوگر روانه سایت‌ها می‌کنند، به احتمال زیاد مخاطبان اصلی سایت مورد نظر می‌باشند و این در حالی است که هزینه چندانی نیز صرف آوردن آنان به سایت نشده است.

آمارهای ارایه شده از رفتار کاربران وب پیام بسیار واضحی دارد: سایت هایی ‌که در رتبه‌های بالا قرار نمی‌گیرند، بخش مهمی از کاربران مخاطب خود را از دست می دهند.

یک سایت ممکن است هزاران بیننده داشته باشد اما از این تعداد بینندگان گروه مخاطب آن است که موفقیت سایت را رقم می زند. زیرا در اغلب موارد این بینندگان مخاطب سایت هستند که از سایت چیزی بیشتر از اطلاعات رایگان ارایه شده می خواهند.

امروزه تجارت الکترونیک خود را با مسئله رتبه بندی در موتورهای جستجوگر هماهنگ کرده است زیرا رتبه های بالاتر مستقیما به فروش بیشتر، تعبیر می شوند. طبق آمارهای ارایه شده در ابتدای سال 2003 میلادی نزدیک به 93 درصد بینندگان سایت های فعال در زمینه ارایه هدایای کریسمس را موتورهای جستجوگر فراهم کرده اند که در این بین گوگل با 27 درصد در صدر ایستاده است و پس از آن یاهو با 25 درصد در رده دوم قرار گرفته است.

شم بازاریابی حکم می کند که همواره در جایی حضور داشته باشیم که مشتری ما آنجاست. اگر ما آنجا نباشیم، رقیب ما آنجا خواهد بود. به عبارت دیگر کسی که قرار است از ما خرید کند، از رقیب ما خرید می کند و بنابراین رقیب ما هر روز چاق تر و چاق تر می شود و ما نحیف و نحیف تر.

بازاریابی با موتورهای جستجوگر (Search Engine Marketing) نیز دو هدف عمده زیر را دنبال می کند:

1. حضور در جاهایی که خریداران ما آنجا هستند.
2. بالاتر بودن از رقبا (کسب وضعیت بهتر نسبت به رقبا)

اینگونه از بازاریابی شامل فعالیتهای مختلفی می باشد که از مهمترین فعالیت های آن، بهینه سازی سایت (Search Engine Optimization) می باشد. در حقیقت موتورهای جستجوگر از مهمترین بینندگان هر سایتی هستند. اگر سایت شما تنها برای مرورگرها، بهینه سازی شده است، کمی تامل کنید، سایت شما باید برای موتورهای جستجوگر هم بهینه سازی گردد. به عنوان مثال مرورگرها می توانند صفحات را با وجود بعضی از خطاها در کدهای آنها، به کاربران نمایش دهند اما موتورهای جستجوگر تا این حد مهربان نیستند. خوشبختانه توجه به موتورهای جستجوگر در طراحی سایت، آنرا برای کاربران سایت هم قابل استفاده تر می کند.

بهینه سازی سایت به معنای به کارگیری ترفندهای پیچیده نیست بلکه در اغلب موارد به کارگیری و اعمال تغییرات کوچک و ساده در سایت است که معمولا تاثیر فوق العاده ای در بالا بردن ضریب نفوذ سایت شما در موتورهای جستجوگر دارند.

ضریب نفوذ مناسب به معنای حضور در موتورهای جستجوگر مهم و عمده، بایگانی شدن هر چه بیشتر صفحات سایت در پایگاه داده آنها و قرار گرفتن در صفحه های اول تا پنجم نتایج جستجوی آنهاست. متخصصین بسیاری در تلاش‌ هستند تا الگوریتم و پارامترهای مورد توجه موتورهای جستجوگر را شناسایی کنند تا بتوانند به کمک آنها به رتبه‌های بالاتری دست یابند و شانس خود را در کسب درآمد بیشتر، افزایش دهند. البته به موازات آنها، موتورهای جستجوگر نیز روز به‌ روز الگوریتم های خود را هوشمندتر کرده و بر اقدامات امنیتی برای حفاظت از الگوریتم‌هایشان می‌افزایند.

چیزی که امروزه این متخصصان با تاکید بر آنها قصد بهبودی رتبه های سایت های خود را دارند، تنها تجربه است و نه یافته های علمی ثابت شده از اسرار بسیار موتورهای جستجوگر.

خلاصه:

• موتور جستجوگر ابزاری است که کاربران اینترنت به کمک آنها سایت ها را می یابند.
• نتایج جستجوی تمام موتورهای جستجوگر دقیق نیست.
• بسیاری از کاربران دریافته اند که در اغلب موارد 10 رتبه اول نتایج جستجوی موتورهای جستجوگر می تواند خواسته آنها را برآورده کند.
• راههای بسیاری برای دسترسی به سایت ها وجود دارد اما موتورهای جستجوگر همواره راهکار اساسی بوده اند.
• تجارت الکترونیک به شدت خود را با مسئله رتبه بندی در موتورهای جستجوگر هماهنگ کرده است و همه سایت ها برای کسب رتبه های بالا تلاش می کنند.

• اجرای یک برنامه موفق بازاریابی با موتورهای جستجوگر، بدون یک ساختار و زیربنای مستحکم در خود سایت، اصولا با شکست همراه می باشد.

قبل از شروع گفتگو درباره هر موضوعی نیاز به آن است که مفاهیم اولیه و اصطلاحات رایج در آن موضوع، بیان شود تا طرفین گفتگو راحت تر به منظور یکدیگر پی ببرند. برخی از مفاهیم و اصطلاحات حوزه SEO در این مقاله شــرح داده شده است.

Spider, Crawler, Robot
نرم افزاری است که کار جمع آوری اطلاعات از صفحات سایتهای مختلف را بر عهده دارد.

Directory
فهرست. نوعی از موتورهای جستجوگر که پایگاه داده آن توسط ویراستاران تکمیل می گردد. در آنها سایت ها در گروههایی موضوعی دسته بندی می شوند.

Keyword
بــه واژه ها ی مهم (کلیدی) هر صفحه گفته می شود. اما غالبا منظور کلماتی است که دوست داریم با آنها رتبه های مناسبی کسب کنیم.

Keyword Density
چگالی کلمه، منظور تعداد دفعات تکرار واژه های کلیدی در مقایسه با سایر کلمات متن است.

Keyword Staffing
تکرار یک کلمه به دفعات و پشت سر هم به منظور بالا بردن چگالی کلمه. این کار تقلب محسوب می شود.

Tinny Text
نوشتن متن با اندازه های بسیار کوچک و ریز به گونه ای که کلمات بسیاری بدین ترتیب در یک خط قرار داده می شود و به سختی نیز در صفحه قابل رویت هستند. نوشتن مطالب به این صورت، تقلب محسوب است.

Invisible Text
متن نامرئی. منظور استفاده از متن های همرنگ با پس زمینه صفحه است. متن هایی که از دید کاربران مخفی می ماند. به عنوان مثال اگر پس زمینه یک صفحه سیاه است، متن صفحه نیز با رنگ سیاه نوشته می شود تا دیده نشود . این نوع متن ها از مصادیق تقلب می باشند.

Spam
تقلب، به تمام تلاش هایی گفته می شود که به کمک آن سعی می شود از راه های غیر معمول، رتبه های بالایی کسب شود. درمورد spamها مقالات زیادی در تالار گفتگوی سایت میکرو رایانه وجود دارد.یا در اختیار گذاردن اطلاعاتی که موتورهای جستجوگر آنرا دوست ندارند (اطلاعات ناخواسته) مانند تکرار یک کلمه به دفعات و پشت سر هم، استفاده از متن های هم رنگ زمینه و ...

ALT tag
محتوای این شناسه، متنی است که یک عکس را توضیح می دهد.

Deep Crawl
به معنای این است که موتور جستجوگر، می تواندصفحات زیادی از یک سایت را در پایگاه داده اش قرار دهد. موتور جستجوگر هرچه پایگاه داده اش بزرگتر باشد، صفحات بیشتری از یک سایت را می تواند در پایگاه داده اش قرار دهد. همه موتورهای جستجوگر دارای این ویژگی نمی باشند.

Robots.txt
با این فایل متنی و ساده، میزان دسترسی موتور جستجوگر به محتوای یک سایت را می توان کنترل کرد.

META robots tag
به کمک این شناسه میزان دسترسی موتور جستجوگر به محتوای یک صفحه را می توان کنترل کرد.

Link
پیوند. در واقع پلی بین دو صفحه است. به کمک آن می توان از یک صفحه به صفحه دیگر رفت.

Link Popularity
مقصود این است که چه تعداد از سایت های دیگر به سایتی مشخص لینک کرده اند یا اینکه از چند سایت دیگر می توان به کمک پیوندها به سایتی مشخص رفت.

Link Reputation
اشاره به این دارد که سایر سایت ها درباره سایتی که بدان لینک داده اند، چه می گویند. عموما در این موارد عنوان، متن لینک و کلمات اطراف لینک در سایت مقصد، بررسی می شوند.

Learn Frequency
بعضی از موتورهای جستجوگر می توانند تشخیص دهند که محتوای صفحات پس از چه مدتی تغییر می کند (به روز می گردد) و بعد از آن مدت به آن صفحات مراجعه می کنند.

URL-Uniform Resource Locator
به آدرس منحصر به فرد هر منبع موجود در اینترنت گفته می شود. این منبع می تواند یک صفحه وب، یک فایل متنی و... باشد

Stop Word
به کلماتی گفته می شود که در کل اینترنت از آنها بسیار استفاده شده است. کلماتی نظیرthe, a, an, web www, home page, و ...

Meta tags
به کمک این شناسه ها، اطلاعاتی از صفحه در اختیار بینندگان (موتور جستجوگر، مرورگرها و ...) قرار داده می شود.

META Keywords
به کمک آن، کلمات کلیدی صفحه در اختیار موتورهای جستجوگر قرار داده می شود.

META Description
به کمک آن، توضیحی مختصر از صفحه در اختیار موتورهای جستجوگر قرار داده می شود.

Stemming
به معنای این است که موتور جستجوگر می تواند صورت های مختلف یک کلمه را جستجو کند. به عنوان مثال با جستجوی swim موتور جستجوگر به دنبال swimmer ،swimming نیز می گردد. همه موتورهای جستجوگر دارای این ویژگی نمی باشند.

Rank
رتبه یک صفحه در نتایج جستجو است زمانی که جستجویی مرتبط با محتوای آن صفحه انجام می شود.

Spamdexing
مختصر شده spam indexing است. منظور طراحی و معرفی صفحاتی به موتورهای جستجوگر است که کیفیت نتایج جستجو را پایین می آورند. موتورهای جستجوگر تمایل دارند که کاربران بارها و بارها به آنها مراجعه کنند و کیفیت بالای نتایج می تواند این روند را تضمین کند. لذا آنها هرکدام به نوعی سعی در تشخیص صفحاتی دارند که کیفیت نتایج جستجو را پایین می آورد. برخی از این موارد عبارتند از: ساختن صفحاتی که همگی دارای محتوای یکسانی اند، تکرار یک کلمه بیش از حد و ...

Comment
توضیحاتی است که طراحان سایت در لابلای کدهای HTML می گنجانند تا برای فهمیدن وظیفه بخش های متفاوت کدهای HTML در مراجعات آتی نیازی به صرف وقت بسیار نداشته باشند.

مهران در روستایی زیبا نزدیک منطقه حفاظت شده ابیورد واقع در شمال شرقی ایران زندگی می کند. او شکارچی ماهری است و همیشه با گوشت لذیذ شکار از میهمانانش پذیرایی می کند. تابستان گذشته بدون اطلاع قبلی به او سر زدم. آنجا که رسیدم خیلی خسته بودم و البته گرسنه. درست یکساعت بعد در حالیکه شکمی از عزا درآورده بودم به این فکر می کردم که مهران چگونه به آن سرعت، غذایی خوشمزه از گوشت آهو برایم آماده کرد؟ او که همان لحظه به شکار نرفته بود! این سوال من را یاد سوال یکی از مشتریانم انداخت که قبلا به من گفته بود: چگونه گوگل در کمتر از یک ثانیه به سوالات ما پاسخ می دهد؟ مگر گوگل می تواند در این مدت کوتاه در تمام وب بگردد؟

چه فانتزی! می توانم رفتار مهران را با رفتار یک موتور جستجوگر مقایسه کنم. این مقایسه برای من که کسب و کاری آنلاین دارم جذاب است. شاید برای شما هم جذاب باشد:

مهران برای شکار، به مجوز نیاز دارد هر چند که می تواند غیر قانونی هم این کار را بکند. او می تواند از راههای بسیاری وارد منطقه حفاظت شده شود. می تواند آهو شکار کند یا کبک یا خرگوش و ... ممکن است شب به شکار برود و یا روز. جالب است بدانید که او گاهی هم دست خالی و بدون شکار بر می گردد. موتور جستجوگر نیز می تواند از راههای متفاوتی به یک سایت وارد شود. این راهها همان لینکها هستند. موتور جستجوگر برای خواندن صفحات سایت مجوزهای لازم و محدودیتها را در فایل ROBOTS.TXT بررسی می کند. هر چند که می تواند آن مجوزها را به طور کلی نادیده بگیرد. موتور جستجوگر می تواند انواع فایل را بخواند: فایل DOC، PDF، HTML، PHP و ... شب به سایت سر بزند و یا روز. گاهی هم که به سایت سر می زند با دست خالی بر می گردد زیرا سرور سایت جواب نمی دهد و سایت موقتا و یا برای همیشه فعال نیست.

مهران بخش های زاید شکار را همانجا دور می ریزد و بقیه را باخود به خانه اش می آورد. گوشت را بسته بندی می کند و در فریزر قرار می دهد تا در روزهای آینده از آن استفاده نماید. موتور جستجوگر نیز بعد از خواندن محتوای سایت بخشهای زاید را دور می ریزد (کلمات بنجل) و بقیه را با خود می آورد، گروه بندی می کند، فشرده سازی می کند و در پایگاه داده اش قرار می دهد تا بعدا از آن استفاده نماید.
مهران اگر لذیذترین گوشت را هم در اختیار داشته باشد اما آشپز خوبی نباشد و نتواند غذای خوبی طبخ کند، برای من که کمی شکمو هستم، اوضاع نگران کننده است و او آشپز محبوب من نخواهد بود. موتور جستجوگر هم اگر بهترین اطلاعات را در اختیار داشته باشد اما نتواند پاسخ های خوبی به سوالات کاربران بدهد، موتور جستجوی محبوب کاربران وب نخواهد بود.

برداشتهای فنی:

1. سایت شما نباید منطقه حفاظت شده باشد.
از سایتهای دیگر بخواهید که به شما لینک کنند. ساختار سایت را به گونه ای طراحی و تدوین کنید که موتور جستجوگر به راحتی بتواند به بخشهای مختلف آن سر بزند. اگر شکارچی سرخود راهی شرق نمی شود تا منطقه ای حفاظت شده در آن سو بیابد موتور جستجوگر نیز تا راهی (لینکی) به سایت شما نداشته باشد روانه آن نمی شود.

2. مجوز لازم را به موتور جستجوگر بدهید.
سایت طراحی شده است که اطلاعاتی عرضه کند بنابراین ضرورتی ندارد دسترسی به آنها را محدود کنید. پس با دقت فایل robots.txt سایت خود را تهیه کنید. حتی اگر سایت شما محدودیتی ندارد این فایل را تهیه کنید و در سایت خود قرار دهید. حالا سایت شما حرفه ای تر است چون برای خود قانون دارد!

3. در انتخاب میزبان وب سایت خود دقت کنید.
وب سایت شما باید همواره در دسترس باشد تا موتور جستجوگر بتواند با مراجعه به آن فایلهای مختلف را شکار کند. در این مورد مقالاتی در تالار گفتگوی سایت میکرو رایانه وجود دارد.

4. راه ورود به سایت شما تنها صفحه اول آن نیست!
اشتباه بسیاری از مدیران این است که تمام لینکها را به صفحه اول سایت خود ارجاع می دهند. اگر از سایت های دیگر لینک درخواست می کنید به صفحات داخلی سایتتان نیز لینک کنید. صفحه اول سایت ها معمولا محتوای کمی دارد و شانس کسب رتبه بالا را کاهش می دهد.

5. هر موتور جستجوگری مهم نیست.
وقت خود را با تمرکز بر روی موتورهای جستجوگر غیر مهم تلف نکنید. آنها هیچ ارزشی برای سایتان ندارند زیرا ترافیک ناشی از آنها در عمل برابر صفر است. گوگل، یاهو، MSN و ASK در اغلب موارد کافی اند. من نیز این قانون را رعایت می کنم و به کار مهران ایمان دارم و سراغ شکارچی دیگری نمی روم.
آهای مهدی! امروز تو هم باید با من بیایی. با این صدا بود که من از دغدغه های ذهنی ام خارج شدم. وب و گوگل را فراموش کردم. دنیای مهران هم می تواند جذاب باشد هر چند که او اصلا نمی داند گوگل چیست!


وقتی جستجویی در یک موتور جستجوگر انجام و نتایج جستجو ارایه می شود، كاربران در واقع نتیجه كار بخش های متفاوت موتور جستجوگر را می بینند. موتور جستجوگر قبلا پایگاه داده اش را آماده كرده است و این گونه نیست كه درست در همان لحظه جستجو، تمام وب را بگردد. بسیاری از خود می پرسند كه چگونه ممکن است گوگل در كمتر از یك ثانیه تمام سایت های وب را بگردد و میلیون ها صفحه را در نتایج جستجوی خود ارایه كند؟

گوگل و هیچ موتور جستجوگر دیگری توانایی انجام این كار را ندارند. همه آنها در زمان پاسخ گویی به جستجوهای كاربران، تنها در پایگاه داده ای كه در اختیار دارند به جستجو می پردازند و نه در وب! در مورد موتورهای جستجو مقالات زیادی در تالار گفتگو و در بخش مقالات سایت میکرو رایانه موجود است. موتور جستجوگر به كمك بخش های متفاوت خود، اطلاعات مورد نیاز را قبلا جمع آوری، تجزیه و تحلیل می كند، آن را در پایگاه داده اش ذخیره می نماید و به هنگام جستجوی کاربر، تنها در همین پایگاه داده می گردد.

بخش های مجزای یك موتور جستجوگر عبارتند از:

• Spider یا عنکبوت
• Crawler یا خزنده
• Indexer یا بایگانی کننده
• Database یا پایگاه داده
• Ranker یا سیستم رتبه بندی

الف- Spider (عنکبوت)

اسپایدر یا روبوت (Robot)، نرم افزاری است كه كار جمع آوری اطلاعات مورد نیاز یك موتور جستجوگر را بر عهده دارد. اسپایدر به صفحات مختلف سر می زند، محتوای آنها را می خواند، لینکها را دنبال می کند، اطلاعات مورد نیاز را جمع آوری می كند و آن را در اختیار سایر بخش های موتور جستجوگر قرار می دهد. كار یك اسپایدر، بسیار شبیه كار كاربران وب است. همانطور كه كاربران، صفحات مختلف را بازدید می كنند، اسپایدر هم درست این كار را انجام می دهد با این تفاوت كه اسپایدر كدهای HTML صفحات را می بیند اما كاربران نتیجه حاصل از كنار هم قرار گرفتن این كدها را. index.html صفحه ای است كه كاربران آن را به صورت شكل (1) می بینند:



شكل 1- نمونه ای از صفحات وب كه توسط مرورگرها نشان داده می شود.



اما یک اسپایدر آنرا چگونه می بیند؟
برای این كه شما هم بتوانید دنیای وب را از دیدگاه یك اسپایدر ببینید، كافی است كه كدهای HTML صفحات را مشاهده کنید. برای این كار در مرورگر مورد استفاده خود، مسیر نشان داده شده در شكل (2) دنبال کنید.



شكل 2- روش مشاهده كدهای HTML یک صفحه وب

با انجام این کار فایل متنی شكل (3) به شما نشان داده می شود:



شكل 3- كدهای HTML سازنده یك صفحه وب

آیا این دنیای متنی برای شما جذاب است؟ اسپایدر، به هنگام مشاهده صفحات، بر روی سرورها رد پا برجای می گذارد. شما اگر اجازه دسترسی به آمار دید و بازدیدهای صورت گرفته از یک سایت و اتفاقات انجام شده در آن را داشته باشید، می توانید مشخص كنید كه اسپایدر كدام یک از موتورهای جستجوگر صفحات سایت را مورد بازدید قرار داده است. یکی از فعالیت های اصلی که در SEM انجام می شود تحلیل آمار همین دید و بازدیدها است.

اسپایدرها كاربردهای دیگری نیز دارند، به عنوان مثال عده ای از آنها به سایت های مختلف مراجعه می كنند و فقط به بررسی فعال بودن لینك های آنها می پردازند و یا به دنبال آدرس ایمیل (Email) می گردند.

ب- Crawler (خزنده)

كراولر، نرم افزاری است كه به عنوان یك فرمانده برای اسپایدر عمل می كند. آن مشخص می كند که اسپایدر كدام صفحات را مورد بازدید قرار دهد. در واقع کراولر تصمیم می گیرد كه كدام یك از لینك های صفحه ای كه اسپایدر در حال حاضر در آن قرار دارد، دنبال شود. ممكن است همه آنها را دنبال كند، بعضی ها را دنبال كند و یا هیچ كدام را دنبال نكند.

کراولر، ممكن است قبلا برنامه ریزی شده باشد که آدرس های خاصی را طبق برنامه، در اختیار اسپایدر قرار دهد تا از آنها دیدن کند. دنبال كردن لینك های یک صفحه به این بستگی دارد كه موتور جستجوگر چه حجمی از اطلاعات یک سایت را می تواند (می خواهد) در پایگاه داده اش ذخیره كند. همچنین ممكن است اجازه دسترسی به بعضی از صفحات به موتورهای جستجوگر داده نشده باشد.

شما به عنوان دارنده سایت، همان طور كه دوست دارید موتورهای جستجوگر اطلاعات سایت شما را با خود ببرند، می توانید آنها را از بعضی صفحات سایت تان دور كنید و اجازه دسترسی به محتوای آن صفحات را به آنها ندهید. موتور جستجو اگر مودب باشد قبل از ورود به هر سایتی ابتدا قوانین دسترسی به محتوای سایت را (در صورت وجود) در فایلی خاص بررسی می کند و از حقوق دسترسی خود اطلاع می یابد. تنظیم میزان دسترسی موتورهای جستجوگر به محتوای یک سایت توسط پروتكل Robots انجام می شود. به عمل کراولر ، خزش (Crawling) می گویند.

ج- Indexer (بایگانی كننده)

تمام اطلاعات جمع آوری شده توسط اسپایدر در اختیار ایندکسر قرار می گیرد. در این بخش اطلاعات ارسالی مورد تجزیه و تحلیل قرار می گیرند و به بخش های متفاوتی تقسیم می شوند. تجزیه و تحلیل بدین معنی است كه مشخص می شود اطلاعات از كدام صفحه ارسال شده است، چه حجمی دارد، كلمات موجود در آن كدامند، کلمات چندبار تكرار شده اند، كلمات در كجای صفحه قرار دارند و ...

در حقیقت ایندکسر، صفحه را به پارامترهای آن خرد می کند و تمام این پارامترها را به یک مقیاس عددی تبدیل می کند تا سیستم رتبه بندی بتواند پارامترهای صفحات مختلف را با هم مقایسه کند. در زمان تجزیه و تحلیل اطلاعات، ایندکسر برای كاهش حجم داده ها از بعضی كلمات كه بسیار رایج هستند صرفنظر می کند. كلماتی نظیر a ، an ، the ، www ، is و ... . از این گونه كلمات هستند.

د - DataBase (پایگاه داده)

تمام داده های تجزیه و تحلیل شده در ایندکسر، به پایگاه داده ارسال می گردد. در این بخش داده ها گروه بندی، كدگذاری و ذخیره می شود. همچنین داده ها قبل از آنكه ذخیره شوند، طبق تکنیکهای خاصی فشرده می شوند تا حجم كمی از پایگاه داده را اشغال كنند. یك موتور جستجوگر باید پایگاه داده عظیمی داشته باشد و به طور مداوم حجم محتوای آن را گسترش دهد و البته اطلاعات قدیمی را هم به روز رسانی نماید. بزرگی و به روز بودن پایگاه داده یك موتور جستجوگر برای آن امتیاز محسوب می گردد. یكی از تفاوتهای اصلی موتورهای جستجوگر در حجم پایگاه داده آنها و همچنین روش ذخیره سازی داده ها در پایگاه داده است.

و- Ranker (سیستم رتبه بندی)

بعد از آنكه تمام مراحل قبل انجام شد، موتور جستجوگر آماده پاسخ گویی به سوالات كاربران است. كاربران چند كلمه را در جعبه جستجوی (Search Box) آن وارد می كنند و سپس با فشردن Enter منتظر پــاسخ می مانند. برای پاسخگویی به درخواست کاربر، ابتدا تمام صفحات موجود در پایگاه داده كه به موضوع جستجو شده، مرتبط هستند، مشخص می شوند. پس از آن سیستم رتبه بندی وارد عمل شده، آنها را از بیشترین ارتباط تا كمترین ارتباط مرتب می كند و به عنوان نتایج جستجو به كاربر نمایش می دهد.

حتی اگر موتور جستجوگر بهترین و كامل ترین پایگاه داده را داشته باشد اما نتواند پاسخ های مرتبطی را ارایه كند، یك موتور جستجوگر ضعیف خواهد بود. در حقیقت سیستم رتبه بندی قلب تپنده یك موتور جستجوگر است و تفاوت اصلی موتورهای جستجوگر در این بخش قرار دارد. سیستم رتبه بندی برای پاسخ گویی به سوالات كاربران، پارامترهای بسیاری را در نظر می گیرد تا بتواند بهترین پاسخ ها را در اختیار آنها قرار دارد.

حرفه ای های دنیای SEM به طور خلاصه از آن به Algo ( الگوریتم) یاد می كنند. الگوریتم، مجموعه ای از دستورالعمل ها است كه موتور جستجوگر با اعمال آنها بر پارامترهای صفحات موجود در پایگاه داده اش، تصمیم می گیرد که صفحات مرتبط را چگونه در نتایج جستجو مرتب كند. در حال حاضر قدرتمندترین سیستم رتبه بندی را گوگل در اختیار دارد.

می توان با ادغام کردن اسپایدر با کراولر و همچنین ایندکسر با پایگاه داده، موتور جستجوگر را شامل سه بخش زیر دانست که این گونه تقسیم بندی هم درست می باشد:

• کراولر
• بایگانی
• سیستم رتبه بندی

تذکر- برای سهولت در بیان مطالب بعدی هر گاه صحبت از بایگانی کردن (شدن) به میان می آید، مقصود این است که صفحه تجزیه و تحلیل شده و به پایگاه داده موتور جستجوگر وارد می شود.
برای آنكه تصور درستی از نحوه كار یك موتور جستجوگر داشته باشید داستان نامتعارف زیر را با هم بررسی می كنیم. داستان ما یک شکارچی دارد. او تصمیم به شكار می گیرد:

-کار کراولر:
او قصد دارد برای شكار به منطقه حفاظت شده ابیورد، واقع در شهرستان درگز (شمالی ترین شهر خراسان بزرگ) برود.

- پروتكل Robots :
ابتدا تمام محدودیت های موجود برای شكار در این منطقه را بررسی می كند:
• آیا در این منطقه می توان به شکار پرداخت؟
• کدام حیوانات را می توان شکار کرد؟
• حداکثر تعداد شکار چه میزانی است؟
• و ... .
فرض می کنیم او مجوز شكار یک اوریال (نوعی آهو) را از شكاربانی منطقه دریافت می كند.

- کار اسپایدر
او اوریالی رعنا را شكار می كند و سپس آنرا با خود به منزل می برد.

- کار ایندکسر
شكار را تكه تكه كرده، گوشت، استخوان، دل و قلوه، كله پاچه و ... آنرا بسته بندی می كند و بخش های زاید شکار را دور می ریزد.

- کار پایگاه داده
بسته های حاصل را درون فریزر قرار داده، ذخیره می کند.

- کار سیستم رتبه بندی
مهمانان سراغ او می آیند و همسرش بسته به ذائقه مهمانان برای آنها غذا طبخ می كند. ممكن است عده ای كله پاچه، عده ای آبگوشت، عده ای ... دوست داشته باشند. پخت غذا طبق سلیقه مهمانان کار سختی است. ممكن است همه آنها آبگوشت بخواهند اما آنها مسلما بامزه ترین آبگوشت را می خواهند!

نکته ها:

• شکارچی می توانست برای شکار کبک یا اوریال و یا هر دو به آن منطقه برود همانطور که موتور جستجوگر می تواند از سرور سایت شما انواع فایل (عکس، فایل متنی، فایل اجرایی و ...) درخواست کند.

• شکارچی می تواند شب به شکار برود یا روز. موتور جستجوگر هم ممکن است شب به سایت شما مراجعه کند یا روز. بنابراین همواره مطمئن باشید که سایت شما آپ است و موتور جستجوگر می تواند در آن به شکار فایلها بپردازد.

• غذای خوشمزه را می توانید با نتایج جستجوی دقیق و مرتبط مقایسه کنید. اگر شکارچی بهترین شکار را با خود به منزل ببرد اما غذایی خوشمزه و مطابق سلیقه مهمانان طبخ نگردد، تمام زحمات هدر رفته است.

• به عنوان آخرین نکته این بخش یاد آوری می کنم که به شکار اوریالی رعنا آن هم در منطقه حفاظت شده ابیورد (پارک ملی تندوره) اصلا فکر نکنید. اما توصیه می شود که حتما از طبیعت بکر آن دیدن فرمایید (بدون اسلحه!).

سایت شما مهمان مهمی دارد!
گفته می شود که SEO یک استراتژی قدرتمند بازاریابی در دنیای آنلاین است و زمانی که به درستی اجرا شود مطمئنا کاربران بسیاری را به کمک موتورهای جستجوگر روانه سایت ها می کند. تصور عمومی بر آنست که SEO کاری است که بعد از طراحی سایت صورت می پذیرد. اما این تصور درست نیست.
اگر شما سایت جدیدی را طراحی می کنید و یا قصد طراحی مجدد سایتتان را دارید، دانستن اینکه موتور جستجوگر چگونه کار می کند؟ کاربران مخاطب شما چگونه جستجو می کنند؟ و بهترین روش طراحی وب سایت تان چیست؟ از همان ابتدا می تواند صرفه جویی قابل ملاحظه ای در زمان و هزینه شما ایجاد کند.

جستجوگران، بینندگان تصادفی نیستند. زمانی که آنها یک سری از کلمات را جستجو می کنند، به معنای آنست که آنها کالا یا خدماتی را می خواهند. لذا ترافیکی که به کمک موتورهای جستجوگر در سایت شما ایجاد می شود به معنای مراجعه گروه کاربران مخاطب به سایت شماست.

بسیار گفته شد که کاربران جستجو می کنند لذا بجا خواهد بود که روشن نماییم اصولا با چه ابزاری می توان در وب به جستجو پرداخت. خدمات جستجویی که در وب ارایه می شود را می توان در دو گروه اصلی دسته بندی نمود:

• فهرستها
• موتورهای جستجوگر

تفاوت اصلی این دو گروه نیز در نحوه تشکیل پایگاه داده و جمع آوری اطلاعات آنهاست. در فهرست ها، اینکار به عهده انسان است اما در موتورهای جستجوگر جمع آوری اطلاعات پایگاه داده را نرم افزارها انجام می دهند. دانستن تفاوت کار این دو گروه بسیار مهم است زیرا هر یک از آنها به گونه ای متفاوت با سایت شما رفتار می نمایند. در مورد موتورهای جستجو مقالات زیادی در تالار گفتگوی سایت میکرو رایانه و نیز در بین مقالات داخل سایت وجود دارد. فهرست هرگز از وجود سایت شما اطلاع نمی یابد مگر زمانی که شخصی آن را به وی معرفی نماید. بعد از معرفی است که ویراستار آن فهرست به سایت شما مراجعه نموده، در صورت رعایت قوانین فهرست و انتخاب گروه مناسب، سایت شما را به پایگاه داده فهرست اضافه می نماید.

اما در موتورهای جستجوگر وضع به گونه ای دیگر است؛ موتور جستجوگر می تواند از وجود سایت شما اطلاع یابد، اگر راه ورود آن فراهم شده باشد. در واقع نرم افزار موتور جستجوگر هر لحظه در حال وبگردی و به روز رسانی اطلاع قدیمی و همینطور افزودن اطلاعات جدید به پایگاه داده موتور جستجوگر است. شما باید سایت خود را با عنوان و توضیحی مناسب به فهرست ها معرفی نمایید و بهترین گروه ممکن را برای سایت خود در نظر بگیرید. این کار بسیار مهم است زیرا عموما فهرست ها همین عنوان و توضیح را به همراه آدرس صفحه اول سایت تان در پایگاه داده خود قرار می دهند.

راه ورود موتور جستجوگر به سایت شما چیست؟

این راه چیزی جز یک پیوند از سایت های دیگر نیست. اگر می خواهید موتور جستجوگر را به میهمانی سایتتان دعوت کنید باید راه را هم به وی نشان دهید و وی آدرس سایت شما را بداند. موتور جستجوگر بهانه های بسیاری برای نپذیرفتن این دعوت دارد، زیرا در همان لحظه به سایت های بسیار دیگری هم دعوت شده است! بنابراین باید در آدرس دادن نهایت دقت را انجام دهید. برای روشنتر شدن موضوع، چگونگی کارکرد موتور جستجوگر را با هم بررسی می کنیم:

موتور جستجوگر چگونه کار می کند؟

طرز کار موتور جستجوگر به طور خلاصه بدین گونه است که ابتدا یک آدرس وب را می یابد، آن را دنبال می کند و به صفحه ای می رسد. محتوای آن صفحه را می خواند و پارامترهای آن را مشخص می کند. به عنوان مثال تعداد کلمات متن آن صفحه، حجم و تاریخ به روز رسانی آن، بعضی از پارامترهای آن صفحه است. سپس پارامترهای تعیین شده را به همراه آدرس آن صفحه به بایگانی موتور جستجوگر ارسال می کند و این اطلاعات در آنجا پس از فشرده سازی، ذخیره می گردد.

حال اگر کاربری که دنبال چیزی می گردد کلماتی را جستجو کند، موتور جستجوگر در پایگاه داده ای که تشکیل داده است ابتدا تمام صفحات مرتبط با موضوع جستجو شده را می یابد و سپس مرتبط ترین را به عنوان اولین نتیجه جستجو و بقیه صفحات را بر اساس میزان ارتباط بعد از آن در اختیار کاربر قرار می دهد. به عبارت دیگر اگر تعداد نتایج جستجو 1000 مورد باشد، سایت رده اول مرتبط ترین و سایت رده 1000 کم ارتباط ترین سایت به موضوع جستجو شده می باشد.

به آدرس دادن برگردیم. شما می توانید آدرس خود را روی تکه کاغذی مچاله شده به مهمان خود بدهید و یا آن را به شکلی بسیار با کلاس و خاطره انگیز تقدیمش کنید. حتما همه ما حالت دوم را ترجیح می دهیم. به عنوان مدیر سایت، جنتلمن باشید و به موتور جستجوگر خصوصا گوگل همانند احترام کنید! پیوندی هم که شما با آن موتور جستجوگر را به پارتی سایت تان دعوت می کنید، بسیار مهم است. همواره پیوند به سایت تان را در سایت (صفحات) مهم دیگر قرار دهید تا موتور جستجوگر نه یکبار که چندین بار به سایت شما از آن طریق مراجعه کند.

موتور جستجوگر، کافیست که آدرس سایت شما را یاد بگیرد. آنوقت می توانید مطمئن باشید که هر ماه حداقل یکبار بدان مراجعه می کند. اما اگر پیوندهای سایتتان در سایتهای معتبر و مهمی باشند آنوقت بیش از یکبار در ماه و حتی هر چند روز یکبار بدان مراجعه می کند.

پیوند دادن و پیوند گرفتن امروزه مقوله ای بسیار جدی میان مدیران سایت هاست. شاید هر روزه میلیونها پست الکترونیک فقط برای این موضوع میان مدیران سایتها رد و بدل می شود. البته مدیران سایت ها نیز خسیس شده اند و به سادگی لینک نمی دهند. به سایت شما لینک نمی دهند تا زمانی که به سایت آنها لینک ندهید: به من لینک بده تا من به تو لینک بدهم! شما هم باید موضوع پیوندها را جدی بگیرید و تعداد پیوندهای به سایت تان را افزایش دهید.

حالا که بحث به اینجا کشیده شده است، اجازه دهید خود را ملزم به رعایت چند قانون ساده کنیم:

• در سایت تان حتما صفحه ای را برای لینک دادن به سایتهای دیگر، اختصاص دهید.

• اگر سایتی محتوای مناسبی دارد، حتما به آن لینک بدهید حتی اگر از شما درخواست هم نکرده باشد. با اینکار شما به طبیعت اینترنت احترام می گذارید و همچنین منابع مفید را به کاربران سایت تان معرفی می نمایید.

• از سایت هایی لینک بگیرید که به محتوای سایتتان ارتباط دارند.

• لینک ها را تنها برای صفحه اول سایتتان درخواست نکنید.

• برای لینک گرفتن از سایت های با ارزش، وقت صرف کنید.

موتورهای جستجوگر از جمله گوگل، از نرم افزاری به نام روبوت یا اسپایدر (عنکبوت) برای جمع آوری اطلاعات موجود در وب استفاده می کنند. آنها به محض اینکه سایتی را پیدا کردند، متن صفحات را می خوانند و لینک ها را دنبال می کنند. همه مدیران سایتها تلاش می کنند تا میزان مراجعه عنکبوت به سایت و زمان حضور آن در سایت خود را افزایش دهند. در این مورد مقالات دیگری در تالار گفتگوی سایت میکرو رایانه وجود دارد. هر چه عنکبوت بیشتر به سایت مراجعه کند، بهتر است زیرا همواره از آخرین تغییرات اعمال شده در محتوای سایت با خبر می شود.

با بکارگیری تکنیکی که در زیر معرفی شده است شما می توانید با عنکبوت گوگل مهربان تر باشید تا شانس حضور موثرتر سایت تان در نتایج جستجوی گوگل افزایش یابد. برای این کار شما فایلی با نام sitemap.xml می سازید و در روت سایت خود قرار می دهید.

مثلا سایت میکرو رایانه می تواند دارای نقشه سایتی (Site Map) به صورت زیر باشد:

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.google.com/schemas/sitemap/0.84">
<url>
<loc>http://www.microrayaneh.com/</loc>
<changefreq>always</changefreq>
<priority>1.0</priority>
</url>
<url>
<loc>http://www.microrayaneh.com/articles/articleslist.htm</loc>
<changefreq>weekly</changefreq>
<priority>1.0</priority>
</url>
<url>
<loc>http://www.microrayaneh.com/web/</loc>
<changefreq>weekly</changefreq>
<priority>1.0</priority>
</url>
<url>
<loc>http://www.microrayaneh.com/rank/ranking.html</loc>
<changefreq>weekly</changefreq>
<priority>1.0</priority>
</url>
</urlset>

• <loc> و </loc> آدرس صفحه را مشخص می کنند.

• <changefreq> و </changefreq> دوره به روزرسانی شدن محتوای صفحه را مشخص می کنند. شما می توانید ازalways, hourly, daily, weekly, monthly, yearly, never برای این تگ استفاده کنید.

• <priority> و </priority> میزان اهمیت هر صفحه در مقایسه با کل صفحات سایت را نشان می دهد که عددی بین صفر و یک است. سعی نکنید به همه عدد یک داده شود. در این مثال فقط برای برای سه صفحه عدد یک در نظر گرفته شده است. در هر صورت به خاطر داشته باشید که اهمیت همه صفحات سایت شما یکسان نیست و برخی مهمترند!

• استفاده از تگهای <loc> و <urlset> و <url> اجباری است و بقیه تگها اختیاری می باشند. دقت کنید که تنها موارد مهم در این مقاله ذکر شده است تا از پیچیدگی مطلب کاسته شود.

آدرس چند نمونه دیگر را که خیلی ساده تنظیم شده می توانید در زیر ملاحظه نمایید:

www.persianblog.ir/sitemap.xml

برای کسب اطلاعات بیشتر به آدرس زیر مراجعه نمایید:

https://www.google.com/webmasters/sitemaps/docs/en/about.html

بعد از آنکه سایت مپ، سایت تان آماده شد و بر روی سرور سایت قرار دادید با مراجعه به آدرس زیر و عضویت در گوگل سایت مپ می توانید سایت مپ (های) خود را به گوگل معرفی کنید. گوگل مراجعه به آنها و وضعیت هر یک را بعد به شما نشان خواهد داد.

https://www.google.com/webmasters/sitemaps/login

موتورهای جستجویی چون گوگل برای جمع آوری اطلاعات وب سایت های مختلف از نرم افزارهایی به نام عنکبوت (spider) استفاده می کنند. وظیفه ی این نرم افزارها این است که به هنگام ورود به یک وب سایت تمامی لینک های موجود در آن را شناسایی کرده و به سمت آنها هدایت شوند. بدین ترتیب تمامی صفحات لینک داده شده، مرور شده و اطلاعات آنها در بانکهای اطلاعاتی گوگل ذخیره می گردد. این نرم افزارها به صورت دوره ای این وب سایت ها را مجددا بررسی می کنند و از آخرین تغییرات اعمال شده در آنها مطلع می گردند.

با استفاده از Google Sitemaps که یکی از جدیدترین امکانات موتور جستجوی گوگل است، ارتباط بین وب سایت و این موتور جستجو بسیار دقیق تر بوده و به عمل به روز رسانی اطلاعات در موتور جستجوی گوگل سرعت می بخشد.

Google Sitemaps
عنکبوت های موتورهای جستجو به راحتی رد لینک های صفحات پویا (dynamic) را نمی گیرند. برای کسب اطلاعات بیشتر در این مورد به مقالات تالار گفتگوی سایت میکرو رایانه مراجعه نمایید. این بدان معنی است که در صورتی که وب سایت شما شامل صفحاتی پویاست امکان ثبت نشدن بعضی از صفحات آن در موتورهای جستجو وجود دارد. در این هنگام است که Google Sitemaps به کمک شما می آید و کار معرفی چنین لینکهایی را انجام می دهد.

وجود چنین تکنیکی به هیچ عنوان به این معنی نیست که نحوه کار سنتی موتور جستجوگر گوگل از بین می رود. این تکنیک تنها روشی برای تسریع در عمل جمع آوری اطلاعات سایت ها است و مجهز نبودن سایت ها به این ابزار به عنوان ضعف وب سایت مذکور تلقی نمی شود.

برنامه Google Sitemaps به صورت مجانی عرضه شده است و باید به این نکته توجه نمود که استفاده از آن به هیچ عنوان در رتبه وب سایت شما در نتایج گوگل تاثیری نخواهد داشت. این برنامه در راستای اهداف شرکت گوگل طراحی شده است و امید آن می رود که با استفاده از آن نتایج سودمندی به هنگام جستجوی وب مشاهده گردد.

لازم به ذکر است Google Sitemaps هنوز به عنوان ابزار رسمی معرفی نگردیده و تنها نسخه بتای آن معرفی شده است.

نحوه استفاده از Google Sitemaps
برای استفاده از این ابزار، طی مراحل زیر الزامی است:

1. ساخت sitemap معتبر
2. اضافه کردن sitemap مذکور به حساب کاربری خود در Google Sitemaps
3. به روز نمودن فایل sitemap خود به هنگام تغییر در سایت خود

استفاده از Google Sitemaps برای همه وب سایت ها امکان پذیر است. لذا چه سایت شما در برگیرنده یک صفحه است و چه شامل میلیونها صفحه پویاست این روش برای معرفی وب سایت تان به موتورهای جستجو توصیه می گردد.

ساخت sitemap
جهت ساخت sitemap سایت خود چندین راه وجود دارد. در زیر به بعضی از این راه ها اشاره شده است:
1. در صورتی که لیست صفحات موجود در وب سایت خود را در فایل متنی خاصی ذخیره کرده اید، می توانید از نرم افزار Google Sitemap Generator برای sitemap سایت استفاده نمایید.

2. در صورتی که امکان استفاده از نرم افزار Google Sitemap Generator را ندارید (برای مثال اگر زبان Python بر سرور شما نصب نمی باشد)، می توانید از نرم افزارهای جانبی دیگر استفاده نمایید.

3. همچنین امکان آماده سازی sitemap به صورت دستی و بر اساس پروتکل sitemap نیز وجود دارد.
برای مشاهده sitemap نمونه شرکت گوگل به اینجا مراجعه نمایید :
http://www.google.com/sitemap.xml

قالبهای متفاوت sitemap قابل شناسایی برای گوگل
گوگل امکان شناسایی Sitemap های مختلفی را دارد ولی از بین انواع معرفی شده آن بهترین گزینه استفاده از sitemapهایی است که از پروتکل Sitemap استفاده می کنند. دلیل این پیشنهاد آن است که اولا با استفاده از این پروتکل علاوه بر آدرس صفحات سایت، اطلاعات مربوط به هر یک از این صفحات نیز قابل ثبت می باشند. ثانیا در صورت استفاده از پروتکل Sitemap ، دیگر موتورهای جستجو نیز امکان استفاده از Sitemap طراحی شده را خواهند داشت.

پروتکل Sitemap :
این قالب یک پروژه متن باز (Open Source) است که توسط شرکت گوگل و با استفاده از زبان xml طراحی شده است و همانطور که پیش از این نیز اشاره شد فایلهای Sitemapی که از این پروتکل استفاده نمایند علاوه بر نگهداری آدرس صفحات سایت امکان ذخیره سازی اطلاعات مربوط به هر صفحه را نیز دارا خواهند بود.

OAI-PMH (Open Archives Initiative Protocol for Metadata Harvesting)
این قالب، تنها برای سایت هایی توصیه می گردد که هم اکنون از این پروتکل استفاده می کنند.

Syndication feed
گوگل قابلیت استفاده از RSS 2.0 و Atom 0.3 feeds را نیز دارا می باشد. تنها در صورتی که هم اکنون از وجود چنین فید هایی در سایت خود بهره می برید، از این روش استفاده نمایید. لازم به ذکر است که فیدها ممکن است تنها اطلاعات آخرین صفحات اضافه شده به سایت را ذخیره نمایند.

فایل متنی
در این قالب از یک فایل متنی (Text File) که در هر سطر آن آدرس یک صفحه ذکر شده است استفاده می شود. در این روش تنها آدرس صفحات ذخیره می شوند و بر خلاف پروتکل Sitemap امکان افزوردن اطلاعات اضافی را ندارد.

ثبت فایل Sitemap
پس از ساخت فایل Sitemap سایت خود می بایست آن را در بخش کاربری خود در سایت گوگل ثبت نمایید.

محل قرارگیری فایل Sitemap
پس از ساخت فایل sitemap می بایست آن را در وب سایت خود قرار دهید. نرم افزارهای جستجوگر گوگل تنها قادر به مرور صفحاتی از صفحات معرفی شده در sitemap هستند که در سطح زیرین پوشه قرارگیری فایل sitemap قرار گرفته اند. پس اگر فایل sitemap شما در پوشه فرضی www.sitename.com/foo قرار داشته باشد، نرم افزارهای مذکور تنها قادر به مرور صفحات موجود در این پوشه foo و پوشه های زیرین آن خواهند بود.
در صورتی که در فایل sitemap ، آدرس صفحات موجود در دیگر پوشه های ریشه ثبت شده باشد، نرم افزارهای جستجوگر به سراغ آن صفحات نخواهند رفت. لذا بهترین مکان برای قرارگیری فایل sitemap ریشه سایت است (در اینجا www.sitename.com) بدین ترتیب تمامی صفحات معرفی شده در sitemap توسط نرم افزارهای جستجوگر مرور خواهند شد.

محتویات فایل Sitemap
به هنگام ساخت فایل sitemap به نکات زیر دقت کنید:

• فایل sitemap امکان ذخیره سازی آدرس صفحات مختلف و یا آدرس sitemapهای دیگر را دارد.

• در صورتی که فایل sitemap شامل آدرس sitemapهای دیگر است می بایست از روش خاصی برای معرفی آنها استفاده نمود و تعداد این sitemapها نباید از 1000 آدرس تجاوز کند. (روش معرفی sitemapها در مقالات آتی شرح داده خواهد شد.)

• فایل sitemap نباید بیشتر از 50000 آدرس را در خود ذخیره کند. علاوه بر آن حجم این فایل در حالت معمولی (فشرده نشده) نباید از 10 مگابایت بیشتر شود. در صورت نیاز به فایل بزرگتر ، به جای استفاده از یک فایل از وجود چند فایل sitemap بهره ببرید.

• تمامی آدرس های معرفی شده در فایل sitemap می بایست از قاعده یکسانی برای آدرس دهی استفاده کنند. به عنوان مثال اگر آدرس یک صفحه را با http://www.sitename.com آغاز نموده اید نباید آدرس صفحه دیگر را با http://sitename.com آغاز نمایید. به همین ترتیب برای آدرس دهی تمامی صفحات معرفی شده در sitemap باید از یکی از روش های فوق استفاده گردد.

• به هنگام معرفی صفحات سایت، آدرس آن را به طور کامل، به همراه پروتکل (برای مثال //:http) و ممیزهای الزامی دیگر مشخص نمایید.

• در آدرس دهی از شماره جلسه (Session ID) استفاده نکنید.

• در آدرس دهی صفحات تنها مجاز به استفاده از کاراکترهای اسکی خاصی هستید و استفاده از کد برخی از کنترلها و کاراکترهای خاص غیر مجاز می باشد. در صورت معتبر نبودن فایل sitemap ساخته شده، به هنگام معرفی آن به گوگل با پیغام خطای مربوط به آن روبرو خواهید شد.

http://www.microrayaneh.com/articles/internet/searchengine7.htm

افزایش استفاده از موتورهای جستجو و تعدد آنهاباعث شده تا کاربران با آگاهی وشناخت کامل به سراغ آنها رفته و با مفاهیم و اصول اولیه آنها آشنا شوند.

قصد داریم شما را با برخی از اصطلاحات موتورهای جستجو آشنا کنیم:

الگوریتم (Algorithm): مجموعه‌ای از قوانین که یک موتور جستجو برای مرتب و منظم نمودن اسامی و نامها در فهرست خود از آنها استفاده می‌کند تا بتواند به یک درخواست مشخص پاسخگو باشد.

لینک‌های پشت‌صحنه (Back Links): تمام لینک‌هایی که به یک صفحه اینترنتی خاص شاره می‌کنند. همچنین به آن لینک‌های هم‌مرز ( Inbound Links) نیز گفته می‌شود.

نرخ کلیک‌شدن (Click Through Rate): درصد کسانی که یک لینک را مشاهده می‌کنند در مقایسه با تعداد دفعاتی که یک لینک در صفحه نتایج( Result Page) نمایش داده می‌شود.

پنهان‌کاری (Cloaking): در صنعت موتورهای جستجو، به عملیاتی گفته می‌شود که در آن موتور جستجو، محتویاتی از یک آدرس اینترنتی (URL) را ذخیره می‌کند که این محتویات با آنچه که جستجوگر مشاهده می‌کند، متفاوت است.

هزینه هر کلیک (Cost Per Click): سیستمی که طبق آن افراد و شرکتهای تبلیغات‌کننده مبلغی را به ازاء هر کلیک روی لینکی که کاربران را به سایت او هدایت می‌کند، می‌پردازد. به این سیستم CPC یا PPC نیز گفته می‌شود.

کاوشگر(Crawler): اجزایی از موتور جستجو که به صورت اتوماتیک در وب کاوش کرده و اقدام به جمع‌آوری اسامی می‌نماید را گویند. این جزء موتورهای جستجو که به نام عنکبوت( Spider) یا ربات نیز نامیده می‌شود، لینک‌های مختلف را برای رسیدن به صفحات اینترنتی تعقیب می‌کند تا به هدف برسد.

دایرکتوری‌ها(Directories): نوعی از موتورهای جستجو است که در آنها اطلاعات و اسامی جمع‌آوری شده با کوشش افراد بوده و از سیستم کاوش اتوماتیک در وب برای یافتن استفاده نمی‌شود. در این سیستم لیست اسامی و آدرسها توسط تعدادی از اپراتورها ذخیره می‌گردد و در هنگام جستجو از این پایگاه داده‌های تهیه شده برای رسیدن به مقصد استفاده می‌شود.

صفحه درگاه (Doorway Page): صفحه‌ای مجازی است، ساخته شده از تعدادی کلمات کلیدی و لینک‌های دیگر که ترافیک موتورهای جستجو را تعدیل می‌کند.

فهرست (Index): مجموعه‌ای از اطلاعاتی که یک موتور جستجو دارد و جستجوگران می‌توانند از آنها استفاده کنند.

صفحه فرود(Landing Page): صفحه‌ای که نهایتا جستجوگر پس از کلیک کردن بر روی لیست نتایج به آن می‌رسد را صفحه فرود گویند.

متن لینک(Link Text): متنی که شامل یک آدرس اینترنتی یا لینک می‌باشد.

موتورهای جستجوی متا (Meta Search Engine): موتورهای جستجویی که به جای کاوش در وب و یافتن درخواست‌های جستجوگران، از فهرست ولیست‌های دو یا چند موتور جستجوی دیگر استفاده می‌نمایند.

برچسب‌های متا (Meta Tags): برچسب‌ها یا اطلاعاتی هستند که در صفحات اینترنتی قرار داده می‌شوند به منظور انتقال اطلاعات به کاوشگر (Crawler) موتورهای جستجو، نمایشگرهای اینترنت و برخی نرم‌افزارهای کاربردی دیگر می‌باشد و قابل رویت توسط جستجوگران نیست.

لیست‌های پرداخت‌شده (Paid Listings): لیست‌هایی که توسط موتورهای جستجو به تبلیغات‌کننده‌ها فروخته می‌شود.

لینک دوطرفه (Reciprocal Link): به یک لینک تبادلی بین دو وب سایت گویند.

صفحه نتایج (Results Page): پس از ورود یک درخواست توسط جستجوگر در موتورجستجو، صفحه‌ای که نتایج در آن نمایش داده می‌شود را گویند که گاهی به نام SERPs نیز نامیده می‌شود که مخفف search Engine Result Pages می‌باشد.

Robots.txt: فایلی که صفحات اینترنتی را از لیست شدن و فهرست‌گیری توسط موتورهای جستجو محفوظ می‌دارد.

بازگشت سرمایه (ROI): درصد سود یا بازده برگشتی از یک فعالیت خاص را گویند و مخفف Return on Investment ‌می‌باشد.

بازاریابی موتورهای جستجو (Search Engine Marketting): عملیات بازاریابی یک وب‌سایت از طریق یک موتورجستجو.

اصطلاح جستجو (Search Terms): کلمه یا کلماتی که یک جستجوگر در قسمت جستجوی یک موتور جستجو وارد می‌کند. به آن کلمات کلیدی، اصطلاح درخواست شده یا Query نیز گفته می‌شود.

فرمانبرداری (Submission): اجازه ورود URL‌ وارد شده توسط جستجوگر به فهرست و لیست موتور جستجو را گویند.

Rasouli@Hamshahri.org

صفحات جانبی

نظرسنجی

    لطفاً نظرات خود را درمورد وبلاگ با اینجانب در میان بگذارید.(iman.sariri@yahoo.com)نتایج تاکنون15000مفید و 125غیرمفید. با سپاس


  • آخرین پستها

آمار وبلاگ

  • کل بازدید :
  • تعداد نویسندگان :
  • تعداد کل پست ها :
  • آخرین بازدید :
  • آخرین بروز رسانی :