ویراستارهای ویکیپدیا یک سیاست جدید رو برای مقابله با موج مقالههایی که با هوش مصنوعی ساخته میشن، تصویب کردن. این سیاست جدید به مدیران ویکیپدیا این اختیار رو میده که مقالههای تولید شده با هوش مصنوعی رو که شرایط خاصی داشته باشن، به سرعت حذف کنن. این موضوع نه فقط برای خود ویکیپدیا، که برای بقیه پلتفرمها هم یک نمونه به حساب میاد تا یاد بگیرن چطور با مشکل رو به رشد محتوای بیکیفیت هوش مصنوعی مقابله کنن؛ پلتفرمی که تا امروز تونسته در برابر انواع افت کیفیتی که گریبان بقیه اینترنت رو گرفته، مقاومت کنه.
ویکیپدیا توسط یک جامعه جهانی و مشارکتی از داوطلبها و ویراستارها اداره میشه و یکی از دلایلی که هنوز یک منبع اطلاعاتی قابل اتکا به حساب میاد اینه که این جامعه زمان زیادی رو صرف بحث، مشورت و گفتگو درباره همه اتفاقات پلتفرم میکنه؛ از تغییرات کوچیک در یک مقاله گرفته تا سیاستهای کلی که نحوه این تغییرات رو مشخص میکنن. حذف کامل مقالهها در ویکیپدیا یک چیز عادیه، اما فرایند اصلی حذف معمولا به یک فاز گفتگوی یک هفتهای نیاز داره تا اعضای ویکیپدیا به یک اجماع برای حذف مقاله برسن.
با این حال، برای رسیدگی به مشکلات رایجی که به شکل واضح قوانین ویکیپدیا رو نقض میکنن، یک فرایند «حذف سریع» هم وجود داره. در این فرایند، یک نفر مقالهای رو پرچمگذاری میکنه، یک مدیر بررسی میکنه که آیا شرایط خاصی رو داره یا نه، و بعد بدون نیاز به دوره گفتگو، مقاله رو حذف میکنه. برای نمونه، مقالههایی که فقط شامل متنهای بیمعنی و نامفهوم هستن یا اون چیزی که ویکیپدیا بهش میگه «چرندیات محض»، میتونن برای حذف سریع علامتگذاری بشن. همین قانون برای مقالههایی که فقط جنبه تبلیغاتی دارن و هیچ ارزش دانشنامهای ندارن هم صادقه. اما اگه کسی یک مقاله رو به این دلیل که «به احتمال زیاد سرشناس نیست» برای حذف نامزد کنه، این یک ارزیابی ذهنیتره و به یک گفتگوی کامل نیاز داره.
تا امروز، بیشتر مقالههایی که ویراستارها به عنوان تولید شده با هوش مصنوعی علامتگذاری میکردن، در دسته دوم قرار میگرفتن، چون ویراستارها نمیتونستن با اطمینان صد درصد بگن که این مقالات کار هوش مصنوعیه. ایلیاس لبلانک، یکی از اعضای موسس پروژه «پاکسازی هوش مصنوعی ویکی» و ویراستاری که در نوشتن سیاست جدید نقش داشته، میگه به همین دلیل پیشنهادهای قبلی برای قانونگذاری محتوای هوش مصنوعی در ویکیپدیا به مشکل خورده بودن.
او توضیح میده: «هرچند تشخیص نشانههایی که میگن یک متن با هوش مصنوعی ساخته شده میتونه آسون باشه (مثل انتخاب کلمات خاص، خطوط تیره، لیستهای بالتدار با تیترهای بولد شده و…)، این نشانهها همیشه اونقدر واضح نیستن و ما نمیخوایم به اشتباه چیزی رو فقط به این دلیل که شبیه نوشته هوش مصنوعیه حذف کنیم». لبلانک اضافه میکنه: «به طور کلی، رشد محتوای هوش مصنوعی که به راحتی تولید میشه، به عنوان یک «تهدید وجودی» برای ویکیپدیا توصیف شده. چون فرایندهای ما برای بحثهای (اغلب طولانی) و رسیدن به اجماع طراحی شدن، توانایی تولید سریع حجم زیادی از محتوای جعلی یک مشکل بزرگه، اگه راهی برای حذف سریع اون نداشته باشیم. البته محتوای هوش مصنوعی به خودی خود بد نیست و انسانها هم کاملا قادر به نوشتن محتوای بد هستن، اما قطعا نه با این سرعت. ابزارهای ما برای یک مقیاس کاملا متفاوت ساخته شدن».
راه حلی که اعضای ویکیپدیا پیدا کردن اینه که اجازه حذف سریع مقالههایی که به وضوح توسط هوش مصنوعی تولید شدن رو بدن، به شرطی که دو شرط کلی رو داشته باشن:
- شرط اول: مقاله شامل «ارتباطی باشه که برای کاربر در نظر گرفته شده».
این یعنی در متن مقاله جملاتی وجود داشته باشه که مشخصه پاسخ یک مدل زبان بزرگ (LLM) به درخواست یک کاربره. جملههایی مثل «این هم مقاله ویکیپدیای شما درباره…»، «تا آخرین آپدیت آموزشی من…» و «به عنوان یک مدل زبان بزرگ». این یک نشانه واضحه که مقاله توسط یک مدل زبان بزرگ تولید شده. لبلانک که میگه این نشانهها رو «چندین بار» دیده، اشاره میکنه که مهمتر از اون، این جملات نشون میدن کاربری که مقاله رو ثبت کرده، حتی اون رو نخونده. او میگه: «اگه کاربر این موارد ابتدایی رو چک نکرده باشه، ما میتونیم با خیال راحت فرض کنیم که هیچی از متنی که کپی و پیست کرده رو بازبینی نکرده و اون متن به اندازه نویز سفید بیفایده است». - شرط دوم: منابع و استنادهای مقاله به وضوح اشتباه باشن.
این هم یکی دیگه از خطاهاییه که مدلهای زبان بزرگ مستعد اون هستن. این خطا میتونه شامل لینکهای خارجی به کتابها، مقالات یا پژوهشهای علمی باشه که اصلا وجود ندارن، یا لینکهایی که به محتوای کاملا بیربط میرن. سیاست جدید ویکیپدیا این مثال رو میزنه: «یک مقاله درباره گونهای از سوسک برای یک مقاله علوم کامپیوتر به عنوان منبع ذکر بشه».
لبلانک میگه که حذف سریع یک «چسب زخم» موقتیه که فقط میتونه واضحترین موارد رو حل کنه و مشکل هوش مصنوعی همچنان باقی میمونه، چون اونها محتوای تولید شده با هوش مصنوعی خیلی بیشتری میبینن که این شرایط جدید رو برای حذف سریع ندارن. او همچنین اشاره میکنه که هوش مصنوعی میتونه یک ابزار مفید باشه و در آینده به یک نیروی مثبت برای ویکیپدیا تبدیل بشه.
با این حال، او میگه: «شرایط فعلی خیلی متفاوته و گمانهزنی درباره اینکه تکنولوژی در سالهای آینده چطور توسعه پیدا میکنه، میتونه به راحتی ما رو از حل مشکلاتی که همین الان باهاشون روبرو هستیم، منحرف کنه. یک ستون اصلی ویکیپدیا اینه که ما قوانین سفت و سختی نداریم و هر تصمیمی که امروز میگیریم، میتونه چند سال دیگه با تکامل تکنولوژی بازنگری بشه».
لبلانک میگه در نهایت این سیاست جدید، ویکیپدیا رو در موقعیت بهتری نسبت به قبل قرار میده، اما هنوز یک موقعیت بینقص نیست. «خبر خوب (فراتر از خود موضوع حذف سریع) اینه که ما به طور رسمی، بیانیهای درباره مقالات تولید شده با مدلهای زبان بزرگ صادر کردیم. این جنبه قبلا در جامعه ما بحثبرانگیز بود: در حالی که اکثریت ما با محتوای هوش مصنوعی مخالفیم، نحوه دقیق برخورد با اون یک نقطه اختلاف بود و تلاشهای اولیه برای سیاستهای گسترده شکست خورده بود. اینجا، با تکیه بر پیروزیهای تدریجی قبلی در مورد تصاویر، پیشنویسها و نظرات تولید شده با هوش مصنوعی، ما روی یک معیار خیلی مشخصتر کار کردیم که با این وجود، به وضوح بیان میکنه که محتوای بازبینی نشده مدلهای زبان بزرگ با روح ویکیپدیا سازگار نیست».
منابع
- [۱] Wikipedia Editors Adopt ‘Speedy Deletion’ Policy for AI Slop Articles
دیدگاهتان را بنویسید