GeekAlerts

جایی برای گیک‌ها

اسلاپ هوش‌مصنوعی (AI slop)، چالش محتواهای بی‌کیفیت تولید شده با AI

اسلاپ هوش‌مصنوعی (AI slop)، چالش محتواهای بی‌کیفیت تولید شده با AI

این روزها اگه تو اینترنت بچرخین، احتمالا با محتوای عجیب و غریبی روبرو شدین که انگار یه ربات نوشته یا ساخته. به این محتوای بی‌کیفیت که با هوش مصنوعی مولد تولید میشه، میگن «اسلاپ هوش مصنوعی» یا به اختصار «اسلاپ» (Slop). این کلمه که تو دهه ۲۰۲۰ سر زبون‌ها افتاد، یه جورایی مثل «اسپم» بار معنایی منفی داره و به مطالبی اشاره میکنه که با کمترین زحمت و در حجم خیلی زیاد تولید میشن.

اسلاپ رو به شکل‌های مختلفی تعریف کردن: «آشغال دیجیتال»، «محتوای پرکننده که سرعت و کمیت رو به محتوا و کیفیت ترجیح میده»، و «محتوای بی‌کیفیت یا ناخواسته هوش مصنوعی در شبکه‌های اجتماعی، هنر، کتاب‌ها و نتایج جستجو». جاناتان گیلمور، استاد فلسفه در دانشگاه شهری نیویورک، اینجور محتوا رو دارای «سبکی فوق‌العاده پیش پا افتاده و واقع‌نما» توصیف میکنه که پردازشش برای بیننده راحته.

دیوید میرمن اسکات، نویسنده، این پدیده رو «آلودگی هوش مصنوعی» (AI Pollution) نامگذاری کرده و اون رو با آلودگی‌های دیگه مثل پلاستیک یا آلودگی نوری مقایسه میکنه. به گفته اون، همونطور که بطری‌های پلاستیکی باعث فجایع زیست‌محیطی شدن یا آلودگی نوری ما رو از دیدن کهکشان راه شیری محروم کرده، حالا خروجی ابزارهایی مثل چت‌جی‌پی‌تی هم داره وب رو با محتوای بی‌ارزش آلوده میکنه.

این کلمه از کجا اومد؟

با پیشرفت مدل‌های زبان بزرگ (LLM) و مدل‌های تولید تصویر که ساخت محتوای نوشتاری و تصویری بی‌کیفیت در حجم بالا رو سریع‌تر کردن، بحث بین روزنامه‌نگارها و تو شبکه‌های اجتماعی شروع شد که اسم مناسب برای این پدیده چیه. اسم‌هایی مثل «زباله هوش مصنوعی» و «آلودگی هوش مصنوعی» هم پیشنهاد شدن. اما به نظر میرسه اولین استفاده‌ها از کلمه «اسلاپ» برای توصیف محتوای سطح پایین هوش مصنوعی، در واکنش به انتشار تولیدکننده‌های تصویر هوش مصنوعی در سال ۲۰۲۲ شکل گرفت. استفاده‌های اولیه از این کلمه بین کاربرهای وبسایت‌هایی مثل 4chan، Hacker News و یوتیوب به عنوان یه اصطلاح داخلی شروع شد.

سایمون ویلیسون، یه برنامه‌نویس کامپیوتر بریتانیایی، از اولین کسایی بود که این اصطلاح رو در سطح گسترده‌تری جا انداخت و در ماه مه ۲۰۲۴ تو وبلاگ شخصیش ازش استفاده کرد. هرچند خودش گفته که این کلمه خیلی قبل از اینکه اون شروع به استفاده ازش بکنه، رایج بوده. این اصطلاح در سه ماهه دوم سال ۲۰۲۴ محبوبیت بیشتری پیدا کرد، که بخشی از اون به خاطر استفاده گوگل از مدل هوش مصنوعی جمینای (Gemini) برای تولید جواب به جستجوها بود.

چطور اسلاپ هوش مصنوعی رو تشخیص بدیم؟

تشخیص این نوع محتوا گاهی سخته اما یه سری نشانه‌ها داره که میشه با دقت کردن بهشون، تا حد زیادی محتوای تولید شده توسط هوش مصنوعی رو شناسایی کرد.

  • عنوان‌های تکراری و پرطمطراق:
    مراقب عنوان‌هایی با صفت‌های اغراق‌آمیز باشین، مثل:
    «راهنمای نهایی برای سئو»
    هوش مصنوعی میدونه که اینجور عنوان‌ها جذابه چون این حس رو میده که همه اطلاعات لازم یکجا جمع شده، اما در عمل محتوای داخل صفحه خیلی سطحی و کمه. همچنین عنوان‌هایی که طولانی و تکراری هستن هم مشکوکن، مثلا:
    «راهنمای نهایی برای سئو: تسلط بر بهینه‌سازی موتورهای جستجو»
    اینجا بخش دوم عنوان تقریبا همون بخش اول رو تکرار میکنه. اگه تو عنوانی از علامت کولن (:) استفاده شده بود، باید حواستون رو برای احتمال وجود هوش مصنوعی جمع کنین.
  • کلمه‌های تکراری و کلیشه‌ای:
    هوش مصنوعی یه سری کلمه مورد علاقه داره که مدام تکرارشون میکنه. مثلا کلمه «ارتقا دادن» (elevate) ممکنه تو یه متن بارها تو عنوان، تیترها و بدنه اصلی تکرار بشه.
  • کلمه‌های خط تیره‌دار:
    برای موضوعات پویا مثل تکنولوژی یا تجارت، مقاله‌های تولید شده با هوش مصنوعی معمولا تو مقدمه از کلمه‌هایی با خط تیره استفاده میکنن، مثل:
    • همیشه در حال تغییر (Ever-changing)
    • همیشه در حال تکامل (Ever-evolving)
    • همیشه در حال گسترش (Ever-expanding)
    • فوق‌العاده متصل (Hyper-connected)
  • عبارت‌های کلیشه‌ای:
    هوش مصنوعی برای رسیدن به تعداد کلمات مشخص، از یه سری عبارت‌های آماده استفاده میکنه. عبارت‌هایی مثل «ایکس ترکیبی غنی از ایگرگ و زد است» یا وعده‌های الکی مثل «شروع سفری به دنیای…» از این دست هستن. یه سرنخ مهم که دیوید میرمن اسکات بهش اشاره کرده، استفاده از عبارت «در نتیجه» (In conclusion) در آخر مقاله‌هاست. به گفته اون، لازم نیست به خواننده بگین که مقاله داره تموم میشه، اما چت‌جی‌پی‌تی انگار روی محتوای آکادمیک آموزش دیده و تقریبا همیشه مقالاتش رو با این عبارت تموم میکنه.
  • تصویرهای غیرواقعی و عجیب:
    تصویرهای تولید شده با هوش مصنوعی، حتی اونایی که قرار بوده فوتورئالیستیک باشن، اغلب یه حس کارتونی دارن. این تصاویر که به راحتی قابل تشخیصن، پر از ایرادهای کوچیک و بزرگ هستن. مثلا دست‌هایی با شش انگشت یا جزئیات عجیب و غریب در پس‌زمینه.

چرا اسلاپ تولید میشه و چه تاثیری داره؟

دلیل اصلی تولید اسلاپ، مسائل اقتصادیه. تولید محتوای زیاد و سریع با هوش مصنوعی خیلی ارزون تموم میشه. این محتوا برای جذب درآمد تبلیغاتی و تاثیر گذاشتن روی رتبه‌بندی موتورهای جستجو ساخته میشه. حتی چند کلیک روی این صفحات هم میتونه هزینه‌های ناچیز تولیدشون رو جبران کنه و سودآور باشه.

این موضوع مخصوصا تو شبکه‌های اجتماعی مثل فیسبوک و تیک‌تاک خیلی به چشم میاد، چون برای تولیدکننده‌هاش درآمدزاست. این انگیزه باعث میشه افرادی از کشورهای در حال توسعه، تصاویری تولید کنن که برای مخاطبای آمریکایی جذابه، چون نرخ تبلیغات در اونجا بالاتره. جیسون کوبلر، روزنامه‌نگار، حدس میزنه که عجیب بودن بعضی از این محتواها ممکنه به خاطر این باشه که سازنده‌هاشون از زبان‌هایی مثل هندی، اردو و ویتنامی برای نوشتن پرامپت‌ها استفاده میکنن که تو داده‌های آموزشی مدل‌ها کمتر به کار رفتن. یه سازنده کنیایی تصاویر اسلاپ به مجله نیویورک گفته که به چت‌جی‌پی‌تی پرامپت‌هایی مثل این میده: «۱۰ پرامپت برای تصویر مسیح بنویس که تعامل بالایی در فیسبوک بیاره»، و بعد خروجی رو به ابزارهای تولید تصویر مثل میدجرنی میده.

این محتوای بی‌کیفیت به اعتبار برندها آسیب میزنه، اعتماد مخاطب رو از بین میبره و در نهایت نمیتونه منجر به جذب مشتری یا تعامل بشه. همچنین روی رتبه‌بندی موتورهای جستجو هم تاثیر منفی داره، چون الگوریتم‌ها روز به روز در شناسایی و جریمه کردن محتوای بی‌کیفیت بهتر میشن.

نمونه‌های واقعی از اسلاپ هوش مصنوعی

اسلاپ تقریبا به همه جای اینترنت نفوذ کرده. اینجا چند نمونه از موقعیت‌هایی که این پدیده سروصدا کرده رو مرور می‌کنیم.

اسلاپ در شبکه‌های اجتماعی و تبلیغات

  • تصویرهای عجیب: یکی از معروف‌ترین نمونه‌ها، تصویری از «مسیح میگویی» (Shrimp Jesus) بود که تو اون، مسیح با موجودات دریایی، مخصوصا میگو، ترکیب شده بود. این تصاویر عجیب خیلی سریع تو فیسبوک وایرال شدن.
  • تبلیغات کوکاکولا: در نوامبر ۲۰۲۴، شرکت کوکاکولا برای کمپین تعطیلات سالانه خودش سه تبلیغ با هوش مصنوعی ساخت. این ویدیوها با واکنش منفی شدیدی از طرف بیننده‌ها و هنرمندان روبرو شدن. الکس هرش، خالق انیمیشن «آبشار جاذبه»، از تصمیم این شرکت برای استفاده نکردن از هنرمندان انسانی انتقاد کرد. کوکاکولا در جواب گفت که «همیشه به خلق بهترین آثار در تقاطع خلاقیت انسانی و تکنولوژی متعهد خواهد بود».
  • تبلیغات اکتیویژن: در ماه مارس، شرکت اکتیویژن تبلیغات و پوسترهایی برای بازی‌های ویدیویی غیرواقعی مثل «Guitar Hero Mobile» و «Crash Bandicoot: Brawl» منتشر کرد که همگی با هوش مصنوعی ساخته شده بودن. این شرکت بعدا اعلام کرد که هدف از این کار، سنجش علاقه بازار به این عناوین احتمالی بوده.
  • ترند «برین‌رات ایتالیایی»: این ترند هوش مصنوعی به طور گسترده توسط تبلیغات‌چی‌ها برای ارتباط بهتر با مخاطبان جوان استفاده شد.

اسلاپ در دنیای سیاست و اخبار جعلی

  • کمپین‌های سیاسی: اسلاپ به طور مکرر در کمپین‌های سیاسی برای جلب توجه از طریق مزرعه محتوا (content farming) استفاده میشه. در آگوست ۲۰۲۴، دونالد ترامپ مجموعه‌ای از تصاویر ساخته شده با هوش مصنوعی رو در شبکه اجتماعیش Truth Social منتشر کرد. این تصاویر طرفداران تیلور سوئیفت رو با تی‌شرت‌های «سوئیفتی‌ها برای ترامپ» نشون میدادن و حتی عکسی از خود سوئیفت بود که انگار از کمپین ترامپ حمایت میکنه. این تصاویر از حساب توییتر محافظه‌کار @amuse اومده بودن که تصاویر اسلاپ زیادی رو منتشر میکرد.
  • طوفان هلن: بعد از طوفان هلن در آمریکا، اعضای حزب جمهوری‌خواه تصویر تولید شده با هوش مصنوعی از دختر جوانی که یه توله سگ رو در سیل در آغوش گرفته بود، منتشر کردن و اون رو به عنوان مدرکی از ناتوانی جو بایدن در واکنش به فاجعه نشون دادن. بعضی‌ها مثل ایمی کرمر، از حامیان ترامپ، این تصویر رو به اشتراک گذاشتن اما اعتراف کردن که واقعی نیست.
  • گزارش‌های دولتی: نسخه اولیه گزارش MAHA در مورد مسائل بهداشتی کودکان که توسط کمیسیونی زیر نظر رابرت اف. کندی جونیور، وزیر بهداشت و خدمات انسانی آمریکا، منتشر شد، به منابع ناموجود و درهم‌ریخته‌ای استناد کرده بود که با هوش مصنوعی تولید شده بودن.
  • وبسایت‌های خبری جعلی: نیوزگارد (NewsGuard)، شرکتی که سایت‌های خبری رو رتبه‌بندی میکنه، تا امروز بیش از هزار وبسایت خبری غیرقابل اعتماد که با هوش مصنوعی تولید شدن و نظارت انسانی کمی دارن یا اصلا ندارن، شناسایی کرده. بیشتر این سایت‌ها «مزارع کلیک‌بیت» بی‌کیفیتی هستن که محتوای زیادی در مورد سلبریتی‌ها، سرگرمی و سیاست منتشر میکنن تا از طریق تبلیغات درآمد کسب کنن.

کلاه‌برداری‌ها و رویدادهای جعلی

  • تجربه شکلات ویلی: گرافیک‌های تبلیغاتی فانتزی برای رویداد «تجربه شکلات ویلی» در سال ۲۰۲۴ که به عنوان «اسلاپ تولید شده با هوش مصنوعی» توصیف شد، باعث شد مخاطبان بلیط رویدادی رو بخرن که در یه انبار با دکوراسیون خیلی ساده برگزار میشد.
  • رژه هالووین در دابلین: در اکتبر ۲۰۲۴، هزاران نفر برای یه رژه هالووین غیرواقعی در دابلین جمع شدن. این اتفاق به خاطر یه آگهی در وبسایت MySpiritHalloween.com بود که از محتوای تولید شده با هوش مصنوعی استفاده میکرد. این آگهی در تیک‌تاک و اینستاگرام وایرال شد. صاحب سایت بعدا گفت: «ما از چت‌جی‌پی‌تی خواستیم مقاله رو برامون بنویسه».

اسلاپ در صنعت سرگرمی و نشر

  • کتاب‌ها: کتاب‌فروشی‌های آنلاین و کتابخانه‌ها الان پر از عناوینی شدن که توسط هوش مصنوعی نوشته شدن. مثلا سرویس Hoopla که به کتابخانه‌ها کتاب الکترونیکی میده، کتاب‌هایی با نویسنده‌های خیالی و کیفیت مشکوک داره که وقتی توسط کاربران ناآگاه به امانت گرفته میشن، برای کتابخانه‌ها هزینه ایجاد میکنن. کتاب‌های راهنمای خطرناکی هم در زمینه قارچ‌شناسی در آمازون منتشر شدن که اطلاعات غلطی در مورد تشخیص قارچ‌های سمی و خوراکی میدادن.
  • فیلم و سینما:
    1. فیلم Late Night with the Devil به خاطر استفاده از چند تصویر بی‌کیفیت هوش مصنوعی به عنوان میان‌نویس مورد انتقاد قرار گرفت. در یکی از تصاویر، اسکلتی با ساختار استخوانی نادرست و انگشتان بدشکل دیده میشد.
    2. شرکت A24 برای انتشار پوسترهای تولید شده با هوش مصنوعی برای فیلم Civil War مورد انتقاد قرار گرفت. یکی از پوسترها تصویر غیرمرتبطی با فیلم رو نشون میداد.
    3. شرکت پارامونت هم برای استفاده از اسکریپت و روایت هوش مصنوعی در یک ویدیوی اینستاگرامی برای فیلم Novocaine مورد انتقاد قرار گرفت.
    4. سرویس‌های استریم مثل آمازون پرایم ویدیو از هوش مصنوعی برای تولید پوستر و تامبنیل استفاده کردن. مثلا پوستری بی‌کیفیت برای فیلم Nosferatu محصول ۱۹۲۲ منتشر شد که شخصیت اصلی رو به شکلی نشون میداد که هیچ شباهتی به ظاهرش در فیلم نداشت. همچنین تامبنیل فیلم ۱۲ Angry Men در سرویس Freevee آمازون، ۱۹ مرد با صورت‌های لکه‌دار رو نشون میداد که هیچکدوم شبیه شخصیت‌های فیلم نبودن.
  • بازی‌های ویدیویی:
    1. بازی Call of Duty: Black Ops 6 شامل دارایی‌هایی بود که با هوش مصنوعی تولید شده بودن. مثلا یک صفحه بارگذاری، بابانوئل زامبی‌شده‌ای رو با شش انگشت نشون میداد.
    2. شرکت Rovio، سازنده Angry Birds، دمویی از بازی Angry Birds: Block Quest رو منتشر کرد که از تصاویر هوش مصنوعی برای پس‌زمینه‌ها استفاده میکرد و با انتقاد شدید بازیکنان مواجه شد و در نهایت حذف شد.
  • موسیقی:
    1. یک گروه موسیقی مستقل به نام The Velvet Sundown که در عرض چند هفته بیش از ۸۵۰ هزار شنونده در اسپاتیفای پیدا کرد، متهم شد که کاملا با هوش مصنوعی ساخته شده. بعد از انکار اولیه، بیوگرافی گروه در اسپاتیفای به‌روز شد و اعلام کرد که این گروه «یک پروژه موسیقی مصنوعی است که با هدایت خلاقیت انسانی و با حمایت هوش مصنوعی ساخته شده» و هدفش «تحریک هنری» بوده.

علم و دانشگاه

مقالات علمی تولید شده با هوش مصنوعی هم در مجلات معتبر و هم در مجلات بی‌کیفیت منتشر شدن. در سال ۲۰۲۴، یک مقاله علمی که داوری هم شده بود و شامل تصویری از موشی با اندام‌های جنسی بسیار بزرگ و متن و نمودارهای بی‌معنی بود، بعد از جلب توجه دانشمندان در شبکه‌های اجتماعی، توسط مجله Frontiers in Cell and Developmental Biology پس گرفته شد.

نظریه‌ها و مفاهیم مرتبط با اسلاپ

  • نظریه اینترنت مرده (Dead Internet Theory): این نظریه میگه بخش بزرگی از فعالیت و محتوای آنلاین توسط عوامل هوش مصنوعی تولید میشه، نه انسان‌ها. پدیده‌ای که روزنامه‌نگاری به نام جیسون کوبلر اون رو «اینترنت زامبی» توصیف میکنه، جایی که ربات‌ها، حساب‌های غیرفعال و کاربران واقعی با هم ترکیب میشن.
  • گفتار بی‌دقت (Careless Speech): این اصطلاح توسط محققانی مثل ساندرا واچر مطرح شده و به خروجی‌های هوش مصنوعی اشاره داره که شامل «نادرستی‌های ظریف، ساده‌سازی‌های بیش از حد یا پاسخ‌های مغرضانه هستن که با لحنی مطمئن به عنوان حقیقت ارائه میشن». هدف این نوع محتوا فریب دادن نیست، بلکه متقاعد کردن یا با اعتماد به نفس به نظر رسیدنه.
  • تراژدی منابع مشترک (Tragedy of the Commons): این مفهوم که توسط گرت هاردین مطرح شد، میگه وقتی یک منبع مشترک (مثل اینترنت) در دسترس همه باشه، هر فرد منطقی سعی میکنه بیشترین بهره رو ازش ببره و این رقابت در نهایت به نابودی اون منبع منجر میشه. در مورد اینترنت، تولید بی‌نهایت محتوای بی‌کیفیت برای کسب کلیک و درآمد، مصداق این تراژدیه.
  • فروپاشی مدل (Model Collapse): نگرانی وجود داره که با پر شدن اینترنت از محتوای هوش مصنوعی، مدل‌های آینده هوش مصنوعی از همین محتوای بی‌کیفیت برای آموزش استفاده کنن. این حلقه بازخورد باعث میشه کیفیت خروجی‌ها به تدریج کمتر و کمتر بشه. به همین دلیل، داده‌های تولید شده قبل از سال ۲۰۲۲ که «پاک» محسوب میشن، مثل فولاد کمیابی شدن که قبل از آزمایش‌های هسته‌ای تولید شده بود.

آینده این پدیده چه خواهد بود؟

بحث در مورد آینده اسلاپ ادامه داره. بعضی‌ها مثل دیوید کسول معتقدن که اسلاپ مثل اسپم ایمیل میمونه که در ابتدا غیرقابل کنترل به نظر میرسید اما در نهایت پلتفرم‌ها یاد گرفتن چطور اون رو فیلتر کنن. به نظر اونها، در آینده اینترنت «زیرلایه‌ای عظیم از چرندیات هوش مصنوعی خواهد داشت که افراد کمی اون رو میبینن».

از طرف دیگه، خیلی‌ها نگرانن که این پدیده بدتر بشه و کل اکوسیستم اطلاعاتی رو تخریب کنه. اونها معتقدن که باید چارچوب‌های قانونی جدیدی برای مسئول نگه داشتن توسعه‌دهنده‌های مدل‌های زبان بزرگ ایجاد بشه و اونها رو ملزم به ساخت مدل‌هایی کنن که بتونن به طور قابل اعتمادی حقیقت رو بگن. همچنین آموزش سواد رسانه‌ای به کاربران برای تشخیص این نوع محتوا و حمایت از محتوای باکیفیت و انسانی، از راهکارهای بلندمدت برای مقابله با این پدیده است. اما در حال حاضر، به نظر میرسه در دوران اسلاپ هوش مصنوعی به سر میبریم و باید یاد بگیریم چطور در این دریای اطلاعات خوب و بد، راه خودمون رو پیدا کنیم.

منابع

  • [۱] AI slop – Wikipedia
  • [۲] AI Slop: The Dark Side of AI-Generated Content
  • [۳] AI Slop: Avoiding Low-Quality AI Content | Copy.ai
  • [۴] AI Slop 101: What It Is & How to Keep It Out of Your Email Marketing
  • [۵] What is AI Slop and How to Avoid It?
  • [۶] Swimming in Slop: How We’ll Navigate the Coming Flood of AI Content | by Mike Todasco | Medium
  • [۷] 5 Worst Examples of AI Slop – AI Phrase Finder
  • [۸] How to avoid AI Slop that is polluting the web | Harrison Pensa LLP
  • [۹] AI-generated slop is quietly conquering the internet. Is it a threat to journalism or a problem that will fix itself? | Reuters Institute for the Study of Journalism
  • [۱۰] The New AI Buzzword Is ‘Slop,’ and It’s Messing With You. What to Watch Out For – CNET

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *