این روزها اگه تو اینترنت بچرخین، احتمالا با محتوای عجیب و غریبی روبرو شدین که انگار یه ربات نوشته یا ساخته. به این محتوای بیکیفیت که با هوش مصنوعی مولد تولید میشه، میگن «اسلاپ هوش مصنوعی» یا به اختصار «اسلاپ» (Slop). این کلمه که تو دهه ۲۰۲۰ سر زبونها افتاد، یه جورایی مثل «اسپم» بار معنایی منفی داره و به مطالبی اشاره میکنه که با کمترین زحمت و در حجم خیلی زیاد تولید میشن.
اسلاپ رو به شکلهای مختلفی تعریف کردن: «آشغال دیجیتال»، «محتوای پرکننده که سرعت و کمیت رو به محتوا و کیفیت ترجیح میده»، و «محتوای بیکیفیت یا ناخواسته هوش مصنوعی در شبکههای اجتماعی، هنر، کتابها و نتایج جستجو». جاناتان گیلمور، استاد فلسفه در دانشگاه شهری نیویورک، اینجور محتوا رو دارای «سبکی فوقالعاده پیش پا افتاده و واقعنما» توصیف میکنه که پردازشش برای بیننده راحته.
دیوید میرمن اسکات، نویسنده، این پدیده رو «آلودگی هوش مصنوعی» (AI Pollution) نامگذاری کرده و اون رو با آلودگیهای دیگه مثل پلاستیک یا آلودگی نوری مقایسه میکنه. به گفته اون، همونطور که بطریهای پلاستیکی باعث فجایع زیستمحیطی شدن یا آلودگی نوری ما رو از دیدن کهکشان راه شیری محروم کرده، حالا خروجی ابزارهایی مثل چتجیپیتی هم داره وب رو با محتوای بیارزش آلوده میکنه.
این کلمه از کجا اومد؟
با پیشرفت مدلهای زبان بزرگ (LLM) و مدلهای تولید تصویر که ساخت محتوای نوشتاری و تصویری بیکیفیت در حجم بالا رو سریعتر کردن، بحث بین روزنامهنگارها و تو شبکههای اجتماعی شروع شد که اسم مناسب برای این پدیده چیه. اسمهایی مثل «زباله هوش مصنوعی» و «آلودگی هوش مصنوعی» هم پیشنهاد شدن. اما به نظر میرسه اولین استفادهها از کلمه «اسلاپ» برای توصیف محتوای سطح پایین هوش مصنوعی، در واکنش به انتشار تولیدکنندههای تصویر هوش مصنوعی در سال ۲۰۲۲ شکل گرفت. استفادههای اولیه از این کلمه بین کاربرهای وبسایتهایی مثل 4chan، Hacker News و یوتیوب به عنوان یه اصطلاح داخلی شروع شد.
سایمون ویلیسون، یه برنامهنویس کامپیوتر بریتانیایی، از اولین کسایی بود که این اصطلاح رو در سطح گستردهتری جا انداخت و در ماه مه ۲۰۲۴ تو وبلاگ شخصیش ازش استفاده کرد. هرچند خودش گفته که این کلمه خیلی قبل از اینکه اون شروع به استفاده ازش بکنه، رایج بوده. این اصطلاح در سه ماهه دوم سال ۲۰۲۴ محبوبیت بیشتری پیدا کرد، که بخشی از اون به خاطر استفاده گوگل از مدل هوش مصنوعی جمینای (Gemini) برای تولید جواب به جستجوها بود.
چطور اسلاپ هوش مصنوعی رو تشخیص بدیم؟
تشخیص این نوع محتوا گاهی سخته اما یه سری نشانهها داره که میشه با دقت کردن بهشون، تا حد زیادی محتوای تولید شده توسط هوش مصنوعی رو شناسایی کرد.
- عنوانهای تکراری و پرطمطراق:
مراقب عنوانهایی با صفتهای اغراقآمیز باشین، مثل:
«راهنمای نهایی برای سئو»
هوش مصنوعی میدونه که اینجور عنوانها جذابه چون این حس رو میده که همه اطلاعات لازم یکجا جمع شده، اما در عمل محتوای داخل صفحه خیلی سطحی و کمه. همچنین عنوانهایی که طولانی و تکراری هستن هم مشکوکن، مثلا:
«راهنمای نهایی برای سئو: تسلط بر بهینهسازی موتورهای جستجو»
اینجا بخش دوم عنوان تقریبا همون بخش اول رو تکرار میکنه. اگه تو عنوانی از علامت کولن (:) استفاده شده بود، باید حواستون رو برای احتمال وجود هوش مصنوعی جمع کنین. - کلمههای تکراری و کلیشهای:
هوش مصنوعی یه سری کلمه مورد علاقه داره که مدام تکرارشون میکنه. مثلا کلمه «ارتقا دادن» (elevate) ممکنه تو یه متن بارها تو عنوان، تیترها و بدنه اصلی تکرار بشه. - کلمههای خط تیرهدار:
برای موضوعات پویا مثل تکنولوژی یا تجارت، مقالههای تولید شده با هوش مصنوعی معمولا تو مقدمه از کلمههایی با خط تیره استفاده میکنن، مثل:- همیشه در حال تغییر (Ever-changing)
- همیشه در حال تکامل (Ever-evolving)
- همیشه در حال گسترش (Ever-expanding)
- فوقالعاده متصل (Hyper-connected)
- عبارتهای کلیشهای:
هوش مصنوعی برای رسیدن به تعداد کلمات مشخص، از یه سری عبارتهای آماده استفاده میکنه. عبارتهایی مثل «ایکس ترکیبی غنی از ایگرگ و زد است» یا وعدههای الکی مثل «شروع سفری به دنیای…» از این دست هستن. یه سرنخ مهم که دیوید میرمن اسکات بهش اشاره کرده، استفاده از عبارت «در نتیجه» (In conclusion) در آخر مقالههاست. به گفته اون، لازم نیست به خواننده بگین که مقاله داره تموم میشه، اما چتجیپیتی انگار روی محتوای آکادمیک آموزش دیده و تقریبا همیشه مقالاتش رو با این عبارت تموم میکنه. - تصویرهای غیرواقعی و عجیب:
تصویرهای تولید شده با هوش مصنوعی، حتی اونایی که قرار بوده فوتورئالیستیک باشن، اغلب یه حس کارتونی دارن. این تصاویر که به راحتی قابل تشخیصن، پر از ایرادهای کوچیک و بزرگ هستن. مثلا دستهایی با شش انگشت یا جزئیات عجیب و غریب در پسزمینه.
چرا اسلاپ تولید میشه و چه تاثیری داره؟
دلیل اصلی تولید اسلاپ، مسائل اقتصادیه. تولید محتوای زیاد و سریع با هوش مصنوعی خیلی ارزون تموم میشه. این محتوا برای جذب درآمد تبلیغاتی و تاثیر گذاشتن روی رتبهبندی موتورهای جستجو ساخته میشه. حتی چند کلیک روی این صفحات هم میتونه هزینههای ناچیز تولیدشون رو جبران کنه و سودآور باشه.
این موضوع مخصوصا تو شبکههای اجتماعی مثل فیسبوک و تیکتاک خیلی به چشم میاد، چون برای تولیدکنندههاش درآمدزاست. این انگیزه باعث میشه افرادی از کشورهای در حال توسعه، تصاویری تولید کنن که برای مخاطبای آمریکایی جذابه، چون نرخ تبلیغات در اونجا بالاتره. جیسون کوبلر، روزنامهنگار، حدس میزنه که عجیب بودن بعضی از این محتواها ممکنه به خاطر این باشه که سازندههاشون از زبانهایی مثل هندی، اردو و ویتنامی برای نوشتن پرامپتها استفاده میکنن که تو دادههای آموزشی مدلها کمتر به کار رفتن. یه سازنده کنیایی تصاویر اسلاپ به مجله نیویورک گفته که به چتجیپیتی پرامپتهایی مثل این میده: «۱۰ پرامپت برای تصویر مسیح بنویس که تعامل بالایی در فیسبوک بیاره»، و بعد خروجی رو به ابزارهای تولید تصویر مثل میدجرنی میده.
این محتوای بیکیفیت به اعتبار برندها آسیب میزنه، اعتماد مخاطب رو از بین میبره و در نهایت نمیتونه منجر به جذب مشتری یا تعامل بشه. همچنین روی رتبهبندی موتورهای جستجو هم تاثیر منفی داره، چون الگوریتمها روز به روز در شناسایی و جریمه کردن محتوای بیکیفیت بهتر میشن.
نمونههای واقعی از اسلاپ هوش مصنوعی
اسلاپ تقریبا به همه جای اینترنت نفوذ کرده. اینجا چند نمونه از موقعیتهایی که این پدیده سروصدا کرده رو مرور میکنیم.
اسلاپ در شبکههای اجتماعی و تبلیغات
- تصویرهای عجیب: یکی از معروفترین نمونهها، تصویری از «مسیح میگویی» (Shrimp Jesus) بود که تو اون، مسیح با موجودات دریایی، مخصوصا میگو، ترکیب شده بود. این تصاویر عجیب خیلی سریع تو فیسبوک وایرال شدن.
- تبلیغات کوکاکولا: در نوامبر ۲۰۲۴، شرکت کوکاکولا برای کمپین تعطیلات سالانه خودش سه تبلیغ با هوش مصنوعی ساخت. این ویدیوها با واکنش منفی شدیدی از طرف بینندهها و هنرمندان روبرو شدن. الکس هرش، خالق انیمیشن «آبشار جاذبه»، از تصمیم این شرکت برای استفاده نکردن از هنرمندان انسانی انتقاد کرد. کوکاکولا در جواب گفت که «همیشه به خلق بهترین آثار در تقاطع خلاقیت انسانی و تکنولوژی متعهد خواهد بود».
- تبلیغات اکتیویژن: در ماه مارس، شرکت اکتیویژن تبلیغات و پوسترهایی برای بازیهای ویدیویی غیرواقعی مثل «Guitar Hero Mobile» و «Crash Bandicoot: Brawl» منتشر کرد که همگی با هوش مصنوعی ساخته شده بودن. این شرکت بعدا اعلام کرد که هدف از این کار، سنجش علاقه بازار به این عناوین احتمالی بوده.
- ترند «برینرات ایتالیایی»: این ترند هوش مصنوعی به طور گسترده توسط تبلیغاتچیها برای ارتباط بهتر با مخاطبان جوان استفاده شد.
اسلاپ در دنیای سیاست و اخبار جعلی
- کمپینهای سیاسی: اسلاپ به طور مکرر در کمپینهای سیاسی برای جلب توجه از طریق مزرعه محتوا (content farming) استفاده میشه. در آگوست ۲۰۲۴، دونالد ترامپ مجموعهای از تصاویر ساخته شده با هوش مصنوعی رو در شبکه اجتماعیش Truth Social منتشر کرد. این تصاویر طرفداران تیلور سوئیفت رو با تیشرتهای «سوئیفتیها برای ترامپ» نشون میدادن و حتی عکسی از خود سوئیفت بود که انگار از کمپین ترامپ حمایت میکنه. این تصاویر از حساب توییتر محافظهکار @amuse اومده بودن که تصاویر اسلاپ زیادی رو منتشر میکرد.
- طوفان هلن: بعد از طوفان هلن در آمریکا، اعضای حزب جمهوریخواه تصویر تولید شده با هوش مصنوعی از دختر جوانی که یه توله سگ رو در سیل در آغوش گرفته بود، منتشر کردن و اون رو به عنوان مدرکی از ناتوانی جو بایدن در واکنش به فاجعه نشون دادن. بعضیها مثل ایمی کرمر، از حامیان ترامپ، این تصویر رو به اشتراک گذاشتن اما اعتراف کردن که واقعی نیست.
- گزارشهای دولتی: نسخه اولیه گزارش MAHA در مورد مسائل بهداشتی کودکان که توسط کمیسیونی زیر نظر رابرت اف. کندی جونیور، وزیر بهداشت و خدمات انسانی آمریکا، منتشر شد، به منابع ناموجود و درهمریختهای استناد کرده بود که با هوش مصنوعی تولید شده بودن.
- وبسایتهای خبری جعلی: نیوزگارد (NewsGuard)، شرکتی که سایتهای خبری رو رتبهبندی میکنه، تا امروز بیش از هزار وبسایت خبری غیرقابل اعتماد که با هوش مصنوعی تولید شدن و نظارت انسانی کمی دارن یا اصلا ندارن، شناسایی کرده. بیشتر این سایتها «مزارع کلیکبیت» بیکیفیتی هستن که محتوای زیادی در مورد سلبریتیها، سرگرمی و سیاست منتشر میکنن تا از طریق تبلیغات درآمد کسب کنن.
کلاهبرداریها و رویدادهای جعلی
- تجربه شکلات ویلی: گرافیکهای تبلیغاتی فانتزی برای رویداد «تجربه شکلات ویلی» در سال ۲۰۲۴ که به عنوان «اسلاپ تولید شده با هوش مصنوعی» توصیف شد، باعث شد مخاطبان بلیط رویدادی رو بخرن که در یه انبار با دکوراسیون خیلی ساده برگزار میشد.
- رژه هالووین در دابلین: در اکتبر ۲۰۲۴، هزاران نفر برای یه رژه هالووین غیرواقعی در دابلین جمع شدن. این اتفاق به خاطر یه آگهی در وبسایت MySpiritHalloween.com بود که از محتوای تولید شده با هوش مصنوعی استفاده میکرد. این آگهی در تیکتاک و اینستاگرام وایرال شد. صاحب سایت بعدا گفت: «ما از چتجیپیتی خواستیم مقاله رو برامون بنویسه».
اسلاپ در صنعت سرگرمی و نشر
- کتابها: کتابفروشیهای آنلاین و کتابخانهها الان پر از عناوینی شدن که توسط هوش مصنوعی نوشته شدن. مثلا سرویس Hoopla که به کتابخانهها کتاب الکترونیکی میده، کتابهایی با نویسندههای خیالی و کیفیت مشکوک داره که وقتی توسط کاربران ناآگاه به امانت گرفته میشن، برای کتابخانهها هزینه ایجاد میکنن. کتابهای راهنمای خطرناکی هم در زمینه قارچشناسی در آمازون منتشر شدن که اطلاعات غلطی در مورد تشخیص قارچهای سمی و خوراکی میدادن.
- فیلم و سینما:
- فیلم Late Night with the Devil به خاطر استفاده از چند تصویر بیکیفیت هوش مصنوعی به عنوان میاننویس مورد انتقاد قرار گرفت. در یکی از تصاویر، اسکلتی با ساختار استخوانی نادرست و انگشتان بدشکل دیده میشد.
- شرکت A24 برای انتشار پوسترهای تولید شده با هوش مصنوعی برای فیلم Civil War مورد انتقاد قرار گرفت. یکی از پوسترها تصویر غیرمرتبطی با فیلم رو نشون میداد.
- شرکت پارامونت هم برای استفاده از اسکریپت و روایت هوش مصنوعی در یک ویدیوی اینستاگرامی برای فیلم Novocaine مورد انتقاد قرار گرفت.
- سرویسهای استریم مثل آمازون پرایم ویدیو از هوش مصنوعی برای تولید پوستر و تامبنیل استفاده کردن. مثلا پوستری بیکیفیت برای فیلم Nosferatu محصول ۱۹۲۲ منتشر شد که شخصیت اصلی رو به شکلی نشون میداد که هیچ شباهتی به ظاهرش در فیلم نداشت. همچنین تامبنیل فیلم ۱۲ Angry Men در سرویس Freevee آمازون، ۱۹ مرد با صورتهای لکهدار رو نشون میداد که هیچکدوم شبیه شخصیتهای فیلم نبودن.
- بازیهای ویدیویی:
- بازی Call of Duty: Black Ops 6 شامل داراییهایی بود که با هوش مصنوعی تولید شده بودن. مثلا یک صفحه بارگذاری، بابانوئل زامبیشدهای رو با شش انگشت نشون میداد.
- شرکت Rovio، سازنده Angry Birds، دمویی از بازی Angry Birds: Block Quest رو منتشر کرد که از تصاویر هوش مصنوعی برای پسزمینهها استفاده میکرد و با انتقاد شدید بازیکنان مواجه شد و در نهایت حذف شد.
- موسیقی:
- یک گروه موسیقی مستقل به نام The Velvet Sundown که در عرض چند هفته بیش از ۸۵۰ هزار شنونده در اسپاتیفای پیدا کرد، متهم شد که کاملا با هوش مصنوعی ساخته شده. بعد از انکار اولیه، بیوگرافی گروه در اسپاتیفای بهروز شد و اعلام کرد که این گروه «یک پروژه موسیقی مصنوعی است که با هدایت خلاقیت انسانی و با حمایت هوش مصنوعی ساخته شده» و هدفش «تحریک هنری» بوده.
علم و دانشگاه
مقالات علمی تولید شده با هوش مصنوعی هم در مجلات معتبر و هم در مجلات بیکیفیت منتشر شدن. در سال ۲۰۲۴، یک مقاله علمی که داوری هم شده بود و شامل تصویری از موشی با اندامهای جنسی بسیار بزرگ و متن و نمودارهای بیمعنی بود، بعد از جلب توجه دانشمندان در شبکههای اجتماعی، توسط مجله Frontiers in Cell and Developmental Biology پس گرفته شد.
نظریهها و مفاهیم مرتبط با اسلاپ
- نظریه اینترنت مرده (Dead Internet Theory): این نظریه میگه بخش بزرگی از فعالیت و محتوای آنلاین توسط عوامل هوش مصنوعی تولید میشه، نه انسانها. پدیدهای که روزنامهنگاری به نام جیسون کوبلر اون رو «اینترنت زامبی» توصیف میکنه، جایی که رباتها، حسابهای غیرفعال و کاربران واقعی با هم ترکیب میشن.
- گفتار بیدقت (Careless Speech): این اصطلاح توسط محققانی مثل ساندرا واچر مطرح شده و به خروجیهای هوش مصنوعی اشاره داره که شامل «نادرستیهای ظریف، سادهسازیهای بیش از حد یا پاسخهای مغرضانه هستن که با لحنی مطمئن به عنوان حقیقت ارائه میشن». هدف این نوع محتوا فریب دادن نیست، بلکه متقاعد کردن یا با اعتماد به نفس به نظر رسیدنه.
- تراژدی منابع مشترک (Tragedy of the Commons): این مفهوم که توسط گرت هاردین مطرح شد، میگه وقتی یک منبع مشترک (مثل اینترنت) در دسترس همه باشه، هر فرد منطقی سعی میکنه بیشترین بهره رو ازش ببره و این رقابت در نهایت به نابودی اون منبع منجر میشه. در مورد اینترنت، تولید بینهایت محتوای بیکیفیت برای کسب کلیک و درآمد، مصداق این تراژدیه.
- فروپاشی مدل (Model Collapse): نگرانی وجود داره که با پر شدن اینترنت از محتوای هوش مصنوعی، مدلهای آینده هوش مصنوعی از همین محتوای بیکیفیت برای آموزش استفاده کنن. این حلقه بازخورد باعث میشه کیفیت خروجیها به تدریج کمتر و کمتر بشه. به همین دلیل، دادههای تولید شده قبل از سال ۲۰۲۲ که «پاک» محسوب میشن، مثل فولاد کمیابی شدن که قبل از آزمایشهای هستهای تولید شده بود.
آینده این پدیده چه خواهد بود؟
بحث در مورد آینده اسلاپ ادامه داره. بعضیها مثل دیوید کسول معتقدن که اسلاپ مثل اسپم ایمیل میمونه که در ابتدا غیرقابل کنترل به نظر میرسید اما در نهایت پلتفرمها یاد گرفتن چطور اون رو فیلتر کنن. به نظر اونها، در آینده اینترنت «زیرلایهای عظیم از چرندیات هوش مصنوعی خواهد داشت که افراد کمی اون رو میبینن».
از طرف دیگه، خیلیها نگرانن که این پدیده بدتر بشه و کل اکوسیستم اطلاعاتی رو تخریب کنه. اونها معتقدن که باید چارچوبهای قانونی جدیدی برای مسئول نگه داشتن توسعهدهندههای مدلهای زبان بزرگ ایجاد بشه و اونها رو ملزم به ساخت مدلهایی کنن که بتونن به طور قابل اعتمادی حقیقت رو بگن. همچنین آموزش سواد رسانهای به کاربران برای تشخیص این نوع محتوا و حمایت از محتوای باکیفیت و انسانی، از راهکارهای بلندمدت برای مقابله با این پدیده است. اما در حال حاضر، به نظر میرسه در دوران اسلاپ هوش مصنوعی به سر میبریم و باید یاد بگیریم چطور در این دریای اطلاعات خوب و بد، راه خودمون رو پیدا کنیم.
منابع
- [۱] AI slop – Wikipedia
- [۲] AI Slop: The Dark Side of AI-Generated Content
- [۳] AI Slop: Avoiding Low-Quality AI Content | Copy.ai
- [۴] AI Slop 101: What It Is & How to Keep It Out of Your Email Marketing
- [۵] What is AI Slop and How to Avoid It?
- [۶] Swimming in Slop: How We’ll Navigate the Coming Flood of AI Content | by Mike Todasco | Medium
- [۷] 5 Worst Examples of AI Slop – AI Phrase Finder
- [۸] How to avoid AI Slop that is polluting the web | Harrison Pensa LLP
- [۹] AI-generated slop is quietly conquering the internet. Is it a threat to journalism or a problem that will fix itself? | Reuters Institute for the Study of Journalism
- [۱۰] The New AI Buzzword Is ‘Slop,’ and It’s Messing With You. What to Watch Out For – CNET
دیدگاهتان را بنویسید