ما در این مطلب قصد داریم به یکی از سوالات شما در زمینه اینکه چگونه موتور جستجو محتوای اسپم را پیدا می کند؟ پاسخ دهیم. با ممتاز سئو همراه باشید.

یکی از ترفند هایی که در گذشته برای مبارزه با اسپم استفاده می شد فشرده سازی (Compressibility) بود. بسیاری از افراد سئو کار در مورد این موضوع، هیچ اطلاعی ندارند و چیزی نشنیده اند. فشرده سازی، یعنی راهی که با استفاده از آن می شوند محتوای بی کیفیت رو تشخیص داد. امروزه معدود کسانی هستند که درباره این موضوع اطلاع دارند.

آنچه در مورد توصیف شما وجود دارد ممکن است توسط موتور جستجو استفاده شود یا نشود، اما با این حال، هنوز درک آن برای موتور جستجو مفید و سودمند است. آگاهی داشتن از فشرده سازی ، برای برنامه ریزی محتوا می تواند مفید باشد؛ زیرا تشخیص می دهد که چه محتوایی فشرده شده، تلقی می شود.

فشرده سازی

موتورهای جستجو اطلاعات صفحه وب را “فشرده سازی” می کنند تا بتوانند اطلاعات بیشتری را در درایوهای سخت خود جای دهند. آیا تا به حال به تبدیل این اطلاعات به یک فایل پستی و یا یک فایل فشرده فکر کرده اید؟ این چیزی است که فشرده سازی یا تراکم پذیری انجام می دهد.

WinZip و GZip الگوریتم های فشرده سازی هستند. کار این الگوریتم ها به این صورت است که داده های تکراری را حذف کرده و آن ها را با کدی جایگزین می کنند؛ که نشان دهنده آن اطلاعات حذف شده است و به این ترتیب اندازه پرونده کوچکتر می شود.

آنچه که متخصصین سئو به تازگی به آن پی برده اند، این است كه صفحات اول و برتر در موتور جستجو فشرده سازی شده اند. زمانی که مهندسین جستجو صفحات اول فشرده شده سازی شده را مورد بررسی قرار دادند، متوجه شدند که صفحات وب با نسبت فشرده سازی بالایی تمایل به از بین بردن محتوای تکراری دارند.

با نگاهی اجمالی متوجه شدند 70٪ صفحات وب با تراکم پذیری بالا اسپم هستند؛ زیرا این صفحات حاوی محتوای تکراری زیادی بودند.

محتوای اسپم

صفحات Thin Pages در محتوای اصلی

منظور از thin page صفحاتی هستند که محتوای تکراری زیادی دارند ولی در عین حال، محتوای آن ها یونیک و منحصر به فرد است.

کاری که متخصصان سئو سال های گذشته انجام می دادند این بود که یک مجموعه پاراگراف تولید می کردند و یک قسمت از این پاراگراف ها را به صورت رندوم در ابتدای صفحه، وسط صفحه و انتهای صفحه قرار می دادند. با مخلوط کردن و تطابق تصادفی پاراگراف ها، خود به خود محتوای غیر تکراری ایجاد می شد که دارای چندین کلیدواژه مختلف می شد.

این مشکل بیشتر در صفحاتی رخ می داد که نرخ فشرده سازی بیشتری را داشتند. این تکنیک به مدت طولانی مورد استفاده قرار گرفت.

فشرده سازی محتوای منحصر به فرد را تعریف می کند

فشرده سازی از این قابلیت برخوردار است که با محتوای تکراری مقابله کند و آن را شکست دهد، با این تفاوت که اسپم می توانند متناسب با هر تعدادی که لازم است، پاراگراف منحصر به فرد برای مجموعه ها ایجاد کنند، اما صفحات وب هنوز به نسبت زیاد فشرده سازی می شوند.

ما نمی دانیم که امروزه موتورهای جستجو از فشرده سازی برای شناسایی محتوای thin استفاده می کنند یا خیر. اما این یک روش ساده برای شناسایی محتوای اضافه شده با نسبت کم وجود دارد. در این روش فشرده سازی را با سایر سیگنال ها ترکیب کرده و پیدا کردن thin page (صفحات نازک) ساده تر می شود.

امروزه فشرده سازی چگونه مفید است؟

فشرده سازی امر مهمی است که حتما باید به آن توجه کنیم؛ زیرا باعث می شود بفهمیم که چرا یک سری از صفحات خوب کار نمی کنند. این ممکن است توسط گوگل برای شکست با اسپم استفاده شود. در هر صورت فشرده سازی هنوز هم مفید هستند چه موتور جستجو از آن استفاده کند و چه نکند. اگر محتوای وب سایت شما توسط یک عامل چهارمی فشرده سازی شده است، ممکن است این کار مفید باشد. بهتر است به این محتوا نگاهی بیندازید تا مطمئن شوید که واقعاً اصلی است یا اضافه.

و در پایان امیدوارم این مقاله با عنوان “موتورهای جستجو چگونه محتوای اسپم را پیدا می کنند؟‎” برای شما مفید واقع شده باشد و به اندازه کافی از آن لذت برده باشید.