اخبار جعلی، دیپفیکهای هوش مصنوعی و نمایش باشکوهِ غیرواقعی
سالهاست در وبلاگم با نام Psych Unseen درباره روانشناسی باورهای نادرست مینویسم؛ بیش از یک دهه. در سال ۲۰۱۶، درست پیش از نخستین ریاستجمهوری دونالد ترامپ، درباره مفهومی به نام «حقیقتنمایی» (truthiness) نوشتم؛ مفهومی که فرهنگ لغت وبستر آن را اینگونه تعریف میکند: «حقیقتی که از دل میآید، نه از کتابها؛ ترجیح دادن مفاهیم یا “واقعیتهایی” که دوست داریم درست باشند، بهجای واقعیتهایی که واقعاً درستاند». عنوان آن یادداشت هم این بود: مرگ واقعیتها: معرفتشناسی جدید امپراتور.
به گزارش اینتیتر، سالهاست در وبلاگم با نام Psych Unseen درباره روانشناسی باورهای نادرست مینویسم؛ بیش از یک دهه. در سال ۲۰۱۶، درست پیش از نخستین ریاستجمهوری دونالد ترامپ، درباره مفهومی به نام «حقیقتنمایی» (truthiness) نوشتم؛ مفهومی که فرهنگ لغت وبستر آن را اینگونه تعریف میکند: «حقیقتی که از دل میآید، نه از کتابها؛ ترجیح دادن مفاهیم یا “واقعیتهایی” که دوست داریم درست باشند، بهجای واقعیتهایی که واقعاً درستاند». عنوان آن یادداشت هم این بود: مرگ واقعیتها: معرفتشناسی جدید امپراتور.
به گزارش سایکولوژی تودی، در آن نوشته اشاره کرده بودم که تاریخ «حقیقتنمایی» خیلی قدیمیتر از یک دهه اخیر است. مقالهای در مجله آتلانتیک به قلم مگان گاربر، این ایده را به دنیل بورستین، تاریخدان آمریکایی، نسبت میدهد؛ کسی که معتقد بود در قرنی که به دهه ۱۹۶۰ ختم شد، «تصویر» در آمریکا جایگزین واقعیت شد. بورستین تصویر را «بازنماییای از واقعیت ــ چه فیلم باشد، چه گزارش خبری یا پوستری از نیلوفرهای آبی مونه ــ که از خود واقعیت جذابتر، دراماتیکتر و فریبندهتر است» تعریف میکرد؛ توهمی «اساساً دموکراتیک» که «بارها و بارها خودمان آن را انتخاب کردهایم، تا جایی که دیگر حتی آن را یک انتخاب هم نمیبینیم». به گفته گاربر، بورستین نگران بود که «دیگر ندانیم واقعیت چیست… و بدتر از آن، انگار برایمان مهم هم نباشد». جالب اینجاست که بورستین این هشدار را در سال ۱۹۶۲ داد؛ خیلی پیش از آنکه تلویزیونهای واقعنما (ریالیتیشوها) اصلاً وجود داشته باشند.
حالا به سال ۲۰۲۶ رسیدهایم؛ ۳۵ سال پس از تولد وب جهانگستر و درست در آستانه انقلابی فناورانه به نام هوش مصنوعی. و من هنوز هم، شاید بیش از همیشه، نگران «حقیقتنمایی» و گرایش عمیق انسانی به پذیرفتن باورهای نادرست هستم. نقلقولی که مدام به یادم میآید، از هانا آرنت، تاریخدان و نظریهپرداز اقتدارگرایی است:
«اگر همه همیشه به شما دروغ بگویند، نتیجهاش این نیست که دروغها را باور کنید؛ بلکه این است که دیگر هیچچیز را باور نکنید… مردمی که دیگر نتوانند به چیزی باور داشته باشند، نهتنها توان عمل، بلکه توان فکر کردن و قضاوت کردن را هم از دست میدهند. و با چنین مردمی میتوان هر کاری خواست انجام داد.»
فراگیری روزافزون اطلاعات نادرستِ تولیدشده با هوش مصنوعی
امروز اطلاعات نادرست و گمراهکننده همهجا هستند. اگر مثل اغلب مردم گوشی هوشمند و شبکههای اجتماعی داشته باشیم، آنقدر با این محتواها بمباران میشویم که تشخیص واقعیت از دروغ سخت شده است. و با توجه به مسیری که هوش مصنوعی طی میکند، این وضعیت قرار است بدتر هم بشود.
البته بخشی از این اطلاعات جعلی بیضرر به نظر میرسند. مثلاً من مدام با نقلقولهای ساختگی از بسکتبالیستهایی مثل لبران جیمز یا پسرش برانی، یا شایعات دروغین درباره نقلوانتقالات NBA روبهرو میشوم. یاد گرفتهام نادیدهشان بگیرم. اما ویدیوها داستان دیگری دارند. هنوز هم نمیتوانم جلوی خودم را بگیرم که روی ویدیوهای جعلی ــ مثلاً از دعوای حیوانات وحشی ــ کلیک نکنم. چند روز پیش ویدیویی دیدم که در آن یوزپلنگی به دم یک اسبآبی در حال فرار چنگ زده بود و در نهایت با «پاسخی گازی» از سوی حیوان بزرگتر عقب رانده میشد! ویدیو کاملاً واقعی به نظر میرسید، اما با کمی جستوجو مشخص شد که این و دهها نسخه مشابه دیگر، ساخته هوش مصنوعی هستند. با این حال، حتی پسر هشتساله من هم میداند که نباید آنچه را آنلاین میبیند یا میخواند، بدون بررسی باور کند.
اینها مثالهای سادهاند. اما امروز هوش مصنوعی به شکل بسیار گستردهتر و با پیامدهای خطرناکتر مورد استفاده ــ و سوءاستفاده ــ قرار میگیرد. در دانشگاهها، استفاده از AI جا افتاده و این خطر وجود دارد که اطلاعات نادرست، با ظاهر پژوهش علمی، منتشر شوند؛ چیزی که به «توهمات هوش مصنوعی» معروف است. بررسی مقالات ارائهشده در کنفرانس معتبر NeurIPS نشان داد که در ۵۱ مقاله، ۱۰۰ منبع جعلی وجود داشته است. نظرسنجی دیگری از ۱۶۰۰ استاد دانشگاه در ۱۱۱ کشور نشان داد بیش از نیمی از آنها برای داوری علمی از AI استفاده میکنند؛ با وجود هشدارها و شواهدی که میگوید این کار میتواند به خطاهای جدی منجر شود. در حالی که دانشگاهها استفاده دانشجویان از چتباتها را برای تکالیف و امتحانات محدود یا ممنوع میکنند، خود استادان روزبهروز بیشتر از AI برای تدریس کمک میگیرند.
اخیراً تبلیغی دیدم که به متخصصان سلامت روان آموزش میداد چطور «GPT شخصی» بسازند تا خبرنامه، وبلاگ و اسکریپت پادکست را «با صدای خودشان» بنویسد. با خودم گفتم: چرا باید بخواهم یک ربات Psych Unseen را بنویسد؟ (کاری که اتفاقاً در Psychology Today هم ممنوع است.) آیا واقعاً اینقدر تنبل شدهایم، خلاقیتمان را از دست دادهایم و به سرقت ادبی ــ که در اصل همان کاری است که مدلهای زبانی میکنند ــ تن میدهیم، در حالی که همزمان در حال تسریع منسوخ شدن حرفهای خودمان هستیم؟ اگر دیگر نتوان به دانشگاه هم بهعنوان مرجع حقیقت اعتماد کرد، پس کجا باید دنبالش بگردیم؟
تهدید قریبالوقوعِ تبلیغات سیاسیِ مبتنی بر هوش مصنوعی
خطر AI در دانشگاه فقط گوشهای از ماجراست. تهدید بسیار جدیتر، تبلیغات سیاسی تولیدشده با هوش مصنوعی است که همین حالا هم برای دستکاری افکار عمومی و رفتار انسانها در مقیاس وسیع به کار میرود. پژوهشگران دانشگاه وندربیلت هشدار دادهاند که «تبلیغات مبتنی بر AI دیگر یک تهدید فرضی نیست؛ عملیاتی، پیچیده و در حال تغییر شکل دستکاری افکار عمومی است».
چتباتها میتوانند ویدیوهای «دیپفیک» بسازند؛ تصاویر بسیار واقعی از افرادی واقعی که کارهایی میکنند یا حرفهایی میزنند که هرگز انجام نداده یا نگفتهاند. روسیه از چتباتها برای انتشار اطلاعات نادرست درباره جنگ اوکراین استفاده کرده و چین برای تأثیرگذاری بر انتخابات ۲۰۲۴ تایوان. گزارش کمیسیون «آمریکا را دوباره سالم کنیم» به رهبری رابرت اف. کندی، که ایمنی واکسنها را زیر سؤال برد، حاوی منابع جعلی بود که تقریباً قطعاً توسط AI تولید شدهاند. دولت ترامپ نیز در یک سال گذشته دستکم ۱۴ تصویر تولیدشده با هوش مصنوعی منتشر کرده، از جمله تصویری دستکاریشده از زنی که هنگام بازداشت توسط پلیس مهاجرت آمریکا، گریان نشان داده میشد. پاسخ کاخ سفید به انتقادها این بود: «میمها ادامه خواهند داشت.»
در مقالهای با عنوان چگونه ازدحامهای مخرب هوش مصنوعی میتوانند دموکراسی را تهدید کنند نیز هشدار داده شده که ابزارهای مولد AI میتوانند بدون کاهش اعتبار، حجم عظیمی از تبلیغات دروغین تولید کنند؛ دروغهایی که حتی از نوشتههای انسانی هم «انسانیتر» به نظر میرسند.
هشدار هانا آرنت همچنان پابرجاست: جامعهای که دیگر نداند چه چیزی را باید باور کند ــ یا چگونه راست را از دروغ تشخیص دهد ــ توان اندیشیدن، داوری و کنش آزاد را از دست میدهد. با سوءاستفاده فزاینده از هوش مصنوعی برای ساختن «نمایشی از غیرواقعیها» که هدفش جلب توجه، تولید خشم، جهتدهی به رأیها و خریدن بیتفاوتی ماست، این هشدار شاید خیلی زود به پیشگوییای محققشده تبدیل شود.