اخبار جعلی، دیپ‌فیک‌های هوش مصنوعی و نمایش باشکوهِ غیرواقعی

کد خبر : ۴۴۶۶۹۲
اخبار جعلی، دیپ‌فیک‌های هوش مصنوعی و نمایش باشکوهِ غیرواقعی

سال‌هاست در وبلاگم با نام Psych Unseen درباره روان‌شناسی باورهای نادرست می‌نویسم؛ بیش از یک دهه. در سال ۲۰۱۶، درست پیش از نخستین ریاست‌جمهوری دونالد ترامپ، درباره مفهومی به نام «حقیقت‌نمایی» (truthiness) نوشتم؛ مفهومی که فرهنگ لغت وبستر آن را این‌گونه تعریف می‌کند: «حقیقتی که از دل می‌آید، نه از کتاب‌ها؛ ترجیح دادن مفاهیم یا “واقعیت‌هایی” که دوست داریم درست باشند، به‌جای واقعیت‌هایی که واقعاً درست‌اند». عنوان آن یادداشت هم این بود: مرگ واقعیت‌ها: معرفت‌شناسی جدید امپراتور.

به گزارش اینتیتر، سال‌هاست در وبلاگم با نام Psych Unseen درباره روان‌شناسی باورهای نادرست می‌نویسم؛ بیش از یک دهه. در سال ۲۰۱۶، درست پیش از نخستین ریاست‌جمهوری دونالد ترامپ، درباره مفهومی به نام «حقیقت‌نمایی» (truthiness) نوشتم؛ مفهومی که فرهنگ لغت وبستر آن را این‌گونه تعریف می‌کند: «حقیقتی که از دل می‌آید، نه از کتاب‌ها؛ ترجیح دادن مفاهیم یا “واقعیت‌هایی” که دوست داریم درست باشند، به‌جای واقعیت‌هایی که واقعاً درست‌اند». عنوان آن یادداشت هم این بود: مرگ واقعیت‌ها: معرفت‌شناسی جدید امپراتور.

به گزارش سایکولوژی تودی، در آن نوشته اشاره کرده بودم که تاریخ «حقیقت‌نمایی» خیلی قدیمی‌تر از یک دهه اخیر است. مقاله‌ای در مجله آتلانتیک به قلم مگان گاربر، این ایده را به دنیل بورستین، تاریخ‌دان آمریکایی، نسبت می‌دهد؛ کسی که معتقد بود در قرنی که به دهه ۱۹۶۰ ختم شد، «تصویر» در آمریکا جایگزین واقعیت شد. بورستین تصویر را «بازنمایی‌ای از واقعیت ــ چه فیلم باشد، چه گزارش خبری یا پوستری از نیلوفرهای آبی مونه ــ که از خود واقعیت جذاب‌تر، دراماتیک‌تر و فریبنده‌تر است» تعریف می‌کرد؛ توهمی «اساساً دموکراتیک» که «بارها و بارها خودمان آن را انتخاب کرده‌ایم، تا جایی که دیگر حتی آن را یک انتخاب هم نمی‌بینیم». به گفته گاربر، بورستین نگران بود که «دیگر ندانیم واقعیت چیست… و بدتر از آن، انگار برایمان مهم هم نباشد». جالب اینجاست که بورستین این هشدار را در سال ۱۹۶۲ داد؛ خیلی پیش از آن‌که تلویزیون‌های واقع‌نما (ریالیتی‌شوها) اصلاً وجود داشته باشند.

حالا به سال ۲۰۲۶ رسیده‌ایم؛ ۳۵ سال پس از تولد وب جهان‌گستر و درست در آستانه انقلابی فناورانه به نام هوش مصنوعی. و من هنوز هم، شاید بیش از همیشه، نگران «حقیقت‌نمایی» و گرایش عمیق انسانی به پذیرفتن باورهای نادرست هستم. نقل‌قولی که مدام به یادم می‌آید، از هانا آرنت، تاریخ‌دان و نظریه‌پرداز اقتدارگرایی است:

«اگر همه همیشه به شما دروغ بگویند، نتیجه‌اش این نیست که دروغ‌ها را باور کنید؛ بلکه این است که دیگر هیچ‌چیز را باور نکنید… مردمی که دیگر نتوانند به چیزی باور داشته باشند، نه‌تنها توان عمل، بلکه توان فکر کردن و قضاوت کردن را هم از دست می‌دهند. و با چنین مردمی می‌توان هر کاری خواست انجام داد.»

فراگیری روزافزون اطلاعات نادرستِ تولیدشده با هوش مصنوعی

امروز اطلاعات نادرست و گمراه‌کننده همه‌جا هستند. اگر مثل اغلب مردم گوشی هوشمند و شبکه‌های اجتماعی داشته باشیم، آن‌قدر با این محتواها بمباران می‌شویم که تشخیص واقعیت از دروغ سخت شده است. و با توجه به مسیری که هوش مصنوعی طی می‌کند، این وضعیت قرار است بدتر هم بشود.

البته بخشی از این اطلاعات جعلی بی‌ضرر به نظر می‌رسند. مثلاً من مدام با نقل‌قول‌های ساختگی از بسکتبالیست‌هایی مثل لبران جیمز یا پسرش برانی، یا شایعات دروغین درباره نقل‌وانتقالات NBA روبه‌رو می‌شوم. یاد گرفته‌ام نادیده‌شان بگیرم. اما ویدیوها داستان دیگری دارند. هنوز هم نمی‌توانم جلوی خودم را بگیرم که روی ویدیوهای جعلی ــ مثلاً از دعوای حیوانات وحشی ــ کلیک نکنم. چند روز پیش ویدیویی دیدم که در آن یوزپلنگی به دم یک اسب‌آبی در حال فرار چنگ زده بود و در نهایت با «پاسخی گازی» از سوی حیوان بزرگ‌تر عقب رانده می‌شد! ویدیو کاملاً واقعی به نظر می‌رسید، اما با کمی جست‌وجو مشخص شد که این و ده‌ها نسخه مشابه دیگر، ساخته هوش مصنوعی هستند. با این حال، حتی پسر هشت‌ساله من هم می‌داند که نباید آنچه را آنلاین می‌بیند یا می‌خواند، بدون بررسی باور کند.

این‌ها مثال‌های ساده‌اند. اما امروز هوش مصنوعی به شکل بسیار گسترده‌تر و با پیامدهای خطرناک‌تر مورد استفاده ــ و سوءاستفاده ــ قرار می‌گیرد. در دانشگاه‌ها، استفاده از AI جا افتاده و این خطر وجود دارد که اطلاعات نادرست، با ظاهر پژوهش علمی، منتشر شوند؛ چیزی که به «توهمات هوش مصنوعی» معروف است. بررسی مقالات ارائه‌شده در کنفرانس معتبر NeurIPS نشان داد که در ۵۱ مقاله، ۱۰۰ منبع جعلی وجود داشته است. نظرسنجی دیگری از ۱۶۰۰ استاد دانشگاه در ۱۱۱ کشور نشان داد بیش از نیمی از آن‌ها برای داوری علمی از AI استفاده می‌کنند؛ با وجود هشدارها و شواهدی که می‌گوید این کار می‌تواند به خطاهای جدی منجر شود. در حالی که دانشگاه‌ها استفاده دانشجویان از چت‌بات‌ها را برای تکالیف و امتحانات محدود یا ممنوع می‌کنند، خود استادان روزبه‌روز بیشتر از AI برای تدریس کمک می‌گیرند.

اخیراً تبلیغی دیدم که به متخصصان سلامت روان آموزش می‌داد چطور «GPT شخصی» بسازند تا خبرنامه، وبلاگ و اسکریپت پادکست را «با صدای خودشان» بنویسد. با خودم گفتم: چرا باید بخواهم یک ربات Psych Unseen را بنویسد؟ (کاری که اتفاقاً در Psychology Today هم ممنوع است.) آیا واقعاً این‌قدر تنبل شده‌ایم، خلاقیت‌مان را از دست داده‌ایم و به سرقت ادبی ــ که در اصل همان کاری است که مدل‌های زبانی می‌کنند ــ تن می‌دهیم، در حالی که هم‌زمان در حال تسریع منسوخ شدن حرفه‌ای خودمان هستیم؟ اگر دیگر نتوان به دانشگاه هم به‌عنوان مرجع حقیقت اعتماد کرد، پس کجا باید دنبالش بگردیم؟

تهدید قریب‌الوقوعِ تبلیغات سیاسیِ مبتنی بر هوش مصنوعی

خطر AI در دانشگاه فقط گوشه‌ای از ماجراست. تهدید بسیار جدی‌تر، تبلیغات سیاسی تولیدشده با هوش مصنوعی است که همین حالا هم برای دست‌کاری افکار عمومی و رفتار انسان‌ها در مقیاس وسیع به کار می‌رود. پژوهشگران دانشگاه وندربیلت هشدار داده‌اند که «تبلیغات مبتنی بر AI دیگر یک تهدید فرضی نیست؛ عملیاتی، پیچیده و در حال تغییر شکل دست‌کاری افکار عمومی است».

چت‌بات‌ها می‌توانند ویدیوهای «دیپ‌فیک» بسازند؛ تصاویر بسیار واقعی از افرادی واقعی که کارهایی می‌کنند یا حرف‌هایی می‌زنند که هرگز انجام نداده یا نگفته‌اند. روسیه از چت‌بات‌ها برای انتشار اطلاعات نادرست درباره جنگ اوکراین استفاده کرده و چین برای تأثیرگذاری بر انتخابات ۲۰۲۴ تایوان. گزارش کمیسیون «آمریکا را دوباره سالم کنیم» به رهبری رابرت اف. کندی، که ایمنی واکسن‌ها را زیر سؤال برد، حاوی منابع جعلی بود که تقریباً قطعاً توسط AI تولید شده‌اند. دولت ترامپ نیز در یک سال گذشته دست‌کم ۱۴ تصویر تولیدشده با هوش مصنوعی منتشر کرده، از جمله تصویری دست‌کاری‌شده از زنی که هنگام بازداشت توسط پلیس مهاجرت آمریکا، گریان نشان داده می‌شد. پاسخ کاخ سفید به انتقادها این بود: «میم‌ها ادامه خواهند داشت.»

در مقاله‌ای با عنوان چگونه ازدحام‌های مخرب هوش مصنوعی می‌توانند دموکراسی را تهدید کنند نیز هشدار داده شده که ابزارهای مولد AI می‌توانند بدون کاهش اعتبار، حجم عظیمی از تبلیغات دروغین تولید کنند؛ دروغ‌هایی که حتی از نوشته‌های انسانی هم «انسانی‌تر» به نظر می‌رسند.

هشدار هانا آرنت همچنان پابرجاست: جامعه‌ای که دیگر نداند چه چیزی را باید باور کند ــ یا چگونه راست را از دروغ تشخیص دهد ــ توان اندیشیدن، داوری و کنش آزاد را از دست می‌دهد. با سوءاستفاده فزاینده از هوش مصنوعی برای ساختن «نمایشی از غیرواقعی‌ها» که هدفش جلب توجه، تولید خشم، جهت‌دهی به رأی‌ها و خریدن بی‌تفاوتی ماست، این هشدار شاید خیلی زود به پیشگویی‌ای محقق‌شده تبدیل شود.

نظرات بینندگان