وب سنجی(4): غنی سازی محتوای وب. چرا و چگونه؟
v کاربردهای غنیسازی وب [1]
کاربردهای اصلی غنیسازی وب را در چهار مقوله میتوان خلاصه کرد:
۱. افزایش ترافیک صفحة غیر از صفحة اول. در تحلیلهای آماری پایگاه آلکسا، اولین تحلیل مهم این است که چند درصد از دیدارگران وب پس از ورود به صفحه نخست پایگاه، حداقل یک پیوند را کلیک کردهاند. از نظر جستجوگرهای وب، این مسئله که دیدارگر پایگاه وب حداقل یک پیوند را کلیک کرده باشد، و حداقل دو دقیقه در آن پایگاه و پیوند باقی مانده باشد، اهمیت بسیار دارد.
بنابر این، پایگاه وبی که دارای رتبة بسیار بالا در کشور یا دنیا باشد، اما درصد زیادی از دیدارگران آن، پیوندی را کلیک نکنند، موردتوجه جستجوگرهای بزرگ مانند گوگل قرار نمیگیرد.
۲. تأمین رضایت دیدارگر وب، که منجر به محبوبیت نشانی (URL popularity) میشود. این رضایت منجر به تبلیغات شفاهی یا اصطلاحاً تبلیغات ویروسی میشود.
۳. ارتقای شخصیت برند (Brand Personality) که یکی از عوامل اصلی هویت برند (Brand Equity) محسوب میشود.
۴. چون معمولاً واژگان مهم صفحة وب به عنوان پیوند در غنیسازی به کار میروند، جستجوگرهای وب، این واژگان را همتراز Index-Meta-Data به حساب میآورند. این ویژگی در الگوریتمهای جستجوگرها هرگز تغییر نکرده است، زیرا پایگاههای وب متقلب راهی برای تقلب در پیوندهای واقعی پیدا نمیکنند.
افزایش اعتبار پایگاه وب عملا به چهار کاربرد فوق بستگی دارد.
v ابزار تحلیل گر وب(Analytics Tools WEB) : همه چیز در مورد وب سایت شما
آنالیز وب به معنای بررسی رفتار بازدیدکنندگان از وبسایتها است. آنالیز وب در زمینه تجاری به طور خاص به معنای استفاده از دادههای جمعآوریشده از وب برای تعیین این امر است که کدام جنبههای وبسایت در جهت اهداف یک کسب و کار و یا سازمان معین عمل میکنند.
دادههای جمعآوریشده تقریبا همیشه شامل گزارشهای "ترافیک وب" هستند. شایان ذکر است بسیاری از کنش های محیط وب توسط تحلیل لاگفایل(logfile analysis) وب سرور که لحظه ای ثبت و ضبط می شود قابل خواندن است و بدین ترتیب میتوان دادههایی درباره محبوبیت یک وبسایت را فراهم کرد.
بروز برخی مشکلات[2] و ظهور زبان برنامه نویسی جاوا اسکریپت که امکان "تگدادن به صفحات" (page tagging) را ممکن ساخت، بطوریکه هنگامی که یک مرورگر وب بر روی یک صفحه عمل میکند، یک سرور ثالث را خبردار کند. این تکنیک امکان استفاده از داده ها را توسط ابزارهای آنالیز وب فراهم آورد.
مهمترین موتورهای جستجو، مانند گوگل، یاهو ابزارهای رایگانی را برای صاحبان سایت ایجاد کرده اند. بخش Web-master Tools هر یک از این نرم افزارها به شما کمک می کند که بیشتر در زمینه ارتباط تحلیل گر با سایتتان بدانید.
همچنین سرویس دهنده های آنالیز وب و ابزارهای بسیار دیگر نیز وجود دارند که در تحلیل وب سایت شما کمک نمایند. در اینجا تعدادی از این نرم افزارها معرفی شدهاند:
v الکسا(www.alexa.com)
v گوگل آنالیتیک (www.analytics.google.com)
v پی ویک(com.www. Piwik)
v کلیکی(com.www. Clicky)
v سایت متر(www.sitemeter.com)
v استات کانتر(www.statcounter.com)
v نایبلرwww.nibbler.silktide.com))
v دِبیت(www.Debate.org)
v وبگذر(www.webgozar.com)
همچنین یاهو و مایکروسافت هم ابزارهای مشابه را در اختیار صاحبان سایت جهت تحلیل و بررسی قرار میدهند. استفاده از تمامی این ابزارهای آنلاین به صورت رایگان بوده و پیاده سازی آن در وب سایت بسیار آسان می باشد.
بطور کلی این نرم افزارها اطلاعات مفید و متنوعی را در زمینه های زیر در اختیار راهبران وب سایت قرار میدهند: (به عنوان مثال)
· گزارش از بخش هایی از سایت که با (مثلا) ربات های گوگل مشکل دارند. در مواردی که استانداردهای W3C و یا امثالهم رعایت نشده باشند، این گزارش برای بخش های فنی سایت مفید است.
· مشخص شدن اینکه ترافیک وب سایت شما از کجا و به چه صورتی به وب سایت هدایت میشود.
· شناسایی"اسپایدرها و روباتهای" موتورهای جستجو(مولد ترافیک)
· گزارش از مشکلات در تیترها و متا تگهای سایت.
· مشاهده کلمات کلیدی شناخته شده توسط گوگل.(کلمات کلیدی بسیار رقابتی)
· مشاهده سایت هایی که به صفحات سایت شما لینک دادهاند.
· موقعیت کلمات کلیدی شما در نتایج جستجو.
· تنظیم سرعت بازدید ربات های گوگل.
· شناسایی رقبای وب سایت شما برای اطلاعات و آگاهی.
· بررسی رتبه بندی و میزان ترافیک در گوگل و ایندکس گوگل.
(گوگل ویدئوهای محبوب و پربازدید را در لیست رتبه بندی در صفحهء اول قرار می دهد.)
· کمک به مولفین و مدیران سایت در انتخاب کلمات کلیدی مطالب.
کمک گرفتن برای bookmark کردن وب سایت و محتوای وب در تمامی شبکه های اجتماعی. (هر چقدر میزان بوک مارک اجتماعی مطالب در این شبکه ها بیشتر باشد، میزان رتبه بندی (رنکینگ) در موتور جستجوی گوگل بیشتر خواهد شد.)[1] http://hamshahrionline.ir/details/218573
[2] ظهور "اسپایدرها و روباتهای" موتورهای جستجو شناسایی بازدیدکنندگان منحصر به فرد انسانی از یک وبسایت را مشکلتر کرد.لاگفایلها حاوی اطلاعاتی از بازدیدها بوسیله اسپایدرهای موتورهای جستجو هستند. همچنین استفاده گسترده از "کشهای وب" نیز مانعی بر سر راه "تحلیل لاگفایل" پدید آورد. اگر شخصی یک صفحه را دوباره ببیند، تقاضای دوم از کش مرورگر (browser cache) پاسخ داده میشود، و تقاضایی در وب سرور دریافت نخواهد شد. این امر به معنای آن است که مسیر کلیک شخص در سایت از دست میرود.