دانشمندان در یک مطالعه جدید متوجه شدند «مدلهای زبانی بزرگ»(LLM) در «هوش مصنوعی» میتوانند به طور خودجوش هنجارهای اجتماعی مشترک را از طریق تعامل با یکدیگر توسعه دهند و به توافق زبانی برسند.
به گزارش مرزاقتصاد _ پژوهشگران دریافتهاند که مدلهای هوش مصنوعی میتوانند به طور خودجوش هنجارهای اجتماعی مشترک را از طریق تعامل با یکدیگر توسعه دهند. آنها ادعا میکنند که وقتی این عاملها در گروههایی با یکدیگر ارتباط برقرار میکنند، صرفاً از دستورالعملها پیروی نمیکنند یا الگوها را تکرار نمیکنند، بلکه خودسازماندهی میکنند و مانند جوامع انسانی در مورد هنجارهای زبانی به اجماع میرسند.
به نقل آیای، «مدلهای زبانی بزرگ»(LLM)، الگوریتمهای قدرتمند یادگیری عمیق هستند که میتوانند زبان انسانی را درک و تولید کنند که مشهورترین آنها تا به امروز «چتجیپیتی»(ChatGPT) است.
تیمی از «دانشگاه لندن» و «دانشگاه IT کپنهاگ»(Copenhagen) خاطرنشان کرد که این مدلهای زبانی بزرگ هنگام برقراری ارتباط در گروهها، تنها از دستورالعملها یا الگوها پیروی نمیکنند.
عاملهای تعاملکننده
«آریل فلینت آشری»(Ariel Flint Ashery)، نویسنده ارشد این مقاله میگوید: بیشتر تحقیقات تاکنون، مدلهای زبانی بزرگ را به صورت مجزا بررسی کردهاند، اما سامانههای «هوش مصنوعی» در دنیای واقعی شامل عاملهای تعاملکننده بسیاری خواهند بود. ما میخواستیم بدانیم که آیا این مدلها میتوانند رفتار خود را با ایجاد هنجارها و قوانین یک جامعه، هماهنگ کنند؟ پاسخ مثبت است و کاری که آنها با هم انجام میدهند را نمیتوان به آنچه که به تنهایی انجام میدهند، تقلیل داد.
یک چارچوب برای مطالعه هنجارهای اجتماعی در انسانها، بر اساس مدل «بازی نامگذاری»(naming game) در شکلگیری آنها اقتباس گرفته شد.
نتایج تجربی
نتایج پژوهشگران، ظهور خودبهخودی هنجارهای اجتماعی پذیرفتهشده جهانی را در جمعیتهای غیرمتمرکز عاملهای «مدل زبانی بزرگ» نشان میدهد.
دانشمندان این مطالعه میگویند: ما نشان میدهیم که چگونه سوگیریهای جمعی قوی میتوانند در طول این فرآیند پدیدار شوند، حتی زمانی که عاملها به صورت فردی هیچ سوگیری از خود نشان نمیدهند. در نهایت، ما بررسی میکنیم که چگونه گروههای اقلیت متعهد از عاملهای مدل زبانی بزرگ خصمانه میتوانند با تحمیل هنجارهای اجتماعی جایگزین بر جمعیت بزرگتر، تغییرات اجتماعی را به وجود آورند.
توسعه خودکار هنجارهای اجتماعی
دانشمندان تأکید کردند که این سامانهها میتوانند بدون برنامهریزی صریح، هنجارهای اجتماعی را به طور خودکار توسعه دهند و این موضوع پیامدهایی برای طراحی این سامانهها دارد که با ارزشهای انسانی و اهداف اجتماعی همسو هستند و همسو باقی میمانند.
آنها در آزمایشهای خود، گروههای عامل مدل زبانی بزرگ از ۲۴ تا ۲۰۰ سامانه متغیر بودند و در هر آزمایش، دو عامل مدل زبانی بزرگ به طور تصادفی با یکدیگر جفت شدند و از آنها خواسته شد که یک نام را از یک مجموعه گزینههای مشترک انتخاب کنند. اگر هر دو عامل یک نام را انتخاب میکردند، پاداش میگرفتند. در غیر این صورت، جریمه میشدند و انتخابهای یکدیگر را مشاهده میکردند.
پژوهشگران همچنین فاش کردند که عاملها فقط به حافظه محدودی از تعاملات اخیر خود دسترسی داشتند و به آنها گفته نشده بود که بخشی از یک گروه هستند.
به گفته محققان، در طول بسیاری از این تعاملات، یک قرارداد نامگذاری مشترک میتواند به طور خودجوش در سراسر جمعیت، بدون هیچگونه هماهنگی ظهور کند و از شکلگیری هنجارها در فرهنگ انسانی تقلید کند. نکته قابل توجهتر این است که این تیم سوگیریهای جمعی را مشاهده کردند که نمیتوان آنها را در عاملهای فردی ردیابی کرد.
این یافتهها در مجله Science Advances منتشر شده است.