GeekAlerts

جایی برای گیک‌ها

ویکیپدیا علیه هوش مصنوعی، سیاست جدید برای حذف سریع مقالات بی‌کیفیت

ویکیپدیا علیه هوش مصنوعی، سیاست جدید برای حذف سریع مقالات بی‌کیفیت

ویراستارهای ویکی‌پدیا یک سیاست جدید رو برای مقابله با موج مقاله‌هایی که با هوش مصنوعی ساخته میشن، تصویب کردن. این سیاست جدید به مدیران ویکیپدیا این اختیار رو میده که مقاله‌های تولید شده با هوش مصنوعی رو که شرایط خاصی داشته باشن، به سرعت حذف کنن. این موضوع نه فقط برای خود ویکیپدیا، که برای بقیه پلتفرم‌ها هم یک نمونه به حساب میاد تا یاد بگیرن چطور با مشکل رو به رشد محتوای بی‌کیفیت هوش مصنوعی مقابله کنن؛ پلتفرمی که تا امروز تونسته در برابر انواع افت کیفیتی که گریبان بقیه اینترنت رو گرفته، مقاومت کنه.

ویکیپدیا توسط یک جامعه جهانی و مشارکتی از داوطلب‌ها و ویراستارها اداره میشه و یکی از دلایلی که هنوز یک منبع اطلاعاتی قابل اتکا به حساب میاد اینه که این جامعه زمان زیادی رو صرف بحث، مشورت و گفتگو درباره همه اتفاقات پلتفرم میکنه؛ از تغییرات کوچیک در یک مقاله گرفته تا سیاست‌های کلی که نحوه این تغییرات رو مشخص میکنن. حذف کامل مقاله‌ها در ویکیپدیا یک چیز عادیه، اما فرایند اصلی حذف معمولا به یک فاز گفتگوی یک هفته‌ای نیاز داره تا اعضای ویکیپدیا به یک اجماع برای حذف مقاله برسن.

با این حال، برای رسیدگی به مشکلات رایجی که به شکل واضح قوانین ویکیپدیا رو نقض میکنن، یک فرایند «حذف سریع» هم وجود داره. در این فرایند، یک نفر مقاله‌ای رو پرچم‌گذاری میکنه، یک مدیر بررسی میکنه که آیا شرایط خاصی رو داره یا نه، و بعد بدون نیاز به دوره گفتگو، مقاله رو حذف میکنه. برای نمونه، مقاله‌هایی که فقط شامل متن‌های بی‌معنی و نامفهوم هستن یا اون چیزی که ویکیپدیا بهش میگه «چرندیات محض»، میتونن برای حذف سریع علامت‌گذاری بشن. همین قانون برای مقاله‌هایی که فقط جنبه تبلیغاتی دارن و هیچ ارزش دانشنامه‌ای ندارن هم صادقه. اما اگه کسی یک مقاله رو به این دلیل که «به احتمال زیاد سرشناس نیست» برای حذف نامزد کنه، این یک ارزیابی ذهنی‌تره و به یک گفتگوی کامل نیاز داره.

تا امروز، بیشتر مقاله‌هایی که ویراستارها به عنوان تولید شده با هوش مصنوعی علامت‌گذاری میکردن، در دسته دوم قرار میگرفتن، چون ویراستارها نمیتونستن با اطمینان صد درصد بگن که این مقالات کار هوش مصنوعیه. ایلیاس لبلانک، یکی از اعضای موسس پروژه «پاکسازی هوش مصنوعی ویکی» و ویراستاری که در نوشتن سیاست جدید نقش داشته، میگه به همین دلیل پیشنهادهای قبلی برای قانون‌گذاری محتوای هوش مصنوعی در ویکیپدیا به مشکل خورده بودن.

او توضیح میده: «هرچند تشخیص نشانه‌هایی که میگن یک متن با هوش مصنوعی ساخته شده میتونه آسون باشه (مثل انتخاب کلمات خاص، خطوط تیره، لیست‌های بالت‌دار با تیترهای بولد شده و…)، این نشانه‌ها همیشه اونقدر واضح نیستن و ما نمیخوایم به اشتباه چیزی رو فقط به این دلیل که شبیه نوشته هوش مصنوعیه حذف کنیم». لبلانک اضافه میکنه: «به طور کلی، رشد محتوای هوش مصنوعی که به راحتی تولید میشه، به عنوان یک «تهدید وجودی» برای ویکیپدیا توصیف شده. چون فرایندهای ما برای بحث‌های (اغلب طولانی) و رسیدن به اجماع طراحی شدن، توانایی تولید سریع حجم زیادی از محتوای جعلی یک مشکل بزرگه، اگه راهی برای حذف سریع اون نداشته باشیم. البته محتوای هوش مصنوعی به خودی خود بد نیست و انسان‌ها هم کاملا قادر به نوشتن محتوای بد هستن، اما قطعا نه با این سرعت. ابزارهای ما برای یک مقیاس کاملا متفاوت ساخته شدن».

راه حلی که اعضای ویکیپدیا پیدا کردن اینه که اجازه حذف سریع مقاله‌هایی که به وضوح توسط هوش مصنوعی تولید شدن رو بدن، به شرطی که دو شرط کلی رو داشته باشن:

  • شرط اول: مقاله شامل «ارتباطی باشه که برای کاربر در نظر گرفته شده».
    این یعنی در متن مقاله جملاتی وجود داشته باشه که مشخصه پاسخ یک مدل زبان بزرگ (LLM) به درخواست یک کاربره. جمله‌هایی مثل «این هم مقاله ویکی‌پدیای شما درباره…»، «تا آخرین آپدیت آموزشی من…» و «به عنوان یک مدل زبان بزرگ». این یک نشانه واضحه که مقاله توسط یک مدل زبان بزرگ تولید شده. لبلانک که میگه این نشانه‌ها رو «چندین بار» دیده، اشاره میکنه که مهم‌تر از اون، این جملات نشون میدن کاربری که مقاله رو ثبت کرده، حتی اون رو نخونده. او میگه: «اگه کاربر این موارد ابتدایی رو چک نکرده باشه، ما میتونیم با خیال راحت فرض کنیم که هیچی از متنی که کپی و پیست کرده رو بازبینی نکرده و اون متن به اندازه نویز سفید بی‌فایده است».
  • شرط دوم: منابع و استنادهای مقاله به وضوح اشتباه باشن.
    این هم یکی دیگه از خطاهاییه که مدل‌های زبان بزرگ مستعد اون هستن. این خطا میتونه شامل لینک‌های خارجی به کتاب‌ها، مقالات یا پژوهش‌های علمی باشه که اصلا وجود ندارن، یا لینک‌هایی که به محتوای کاملا بی‌ربط میرن. سیاست جدید ویکیپدیا این مثال رو میزنه: «یک مقاله درباره گونه‌ای از سوسک برای یک مقاله علوم کامپیوتر به عنوان منبع ذکر بشه».

لبلانک میگه که حذف سریع یک «چسب زخم» موقتیه که فقط میتونه واضح‌ترین موارد رو حل کنه و مشکل هوش مصنوعی همچنان باقی میمونه، چون اونها محتوای تولید شده با هوش مصنوعی خیلی بیشتری میبینن که این شرایط جدید رو برای حذف سریع ندارن. او همچنین اشاره میکنه که هوش مصنوعی میتونه یک ابزار مفید باشه و در آینده به یک نیروی مثبت برای ویکیپدیا تبدیل بشه.

با این حال، او میگه: «شرایط فعلی خیلی متفاوته و گمانه‌زنی درباره اینکه تکنولوژی در سال‌های آینده چطور توسعه پیدا میکنه، میتونه به راحتی ما رو از حل مشکلاتی که همین الان باهاشون روبرو هستیم، منحرف کنه. یک ستون اصلی ویکیپدیا اینه که ما قوانین سفت و سختی نداریم و هر تصمیمی که امروز میگیریم، میتونه چند سال دیگه با تکامل تکنولوژی بازنگری بشه».

لبلانک میگه در نهایت این سیاست جدید، ویکیپدیا رو در موقعیت بهتری نسبت به قبل قرار میده، اما هنوز یک موقعیت بی‌نقص نیست. «خبر خوب (فراتر از خود موضوع حذف سریع) اینه که ما به طور رسمی، بیانیه‌ای درباره مقالات تولید شده با مدل‌های زبان بزرگ صادر کردیم. این جنبه قبلا در جامعه ما بحث‌برانگیز بود: در حالی که اکثریت ما با محتوای هوش مصنوعی مخالفیم، نحوه دقیق برخورد با اون یک نقطه اختلاف بود و تلاش‌های اولیه برای سیاست‌های گسترده شکست خورده بود. اینجا، با تکیه بر پیروزی‌های تدریجی قبلی در مورد تصاویر، پیش‌نویس‌ها و نظرات تولید شده با هوش مصنوعی، ما روی یک معیار خیلی مشخص‌تر کار کردیم که با این وجود، به وضوح بیان میکنه که محتوای بازبینی نشده مدل‌های زبان بزرگ با روح ویکیپدیا سازگار نیست».

منابع

  • [۱] Wikipedia Editors Adopt ‘Speedy Deletion’ Policy for AI Slop Articles

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *