هوش مصنوعی دارد برای بقا میجنگد
هوش مصنوعی باید «قابلیت خاموش شدن» داشته باشد و نباید فعلاً برایش حق و حقوق قانونی قائل شد؛ این هشدار یکی از مهمترین پیشگامان این حوزه است که میگوید سیستمهای جدید نشانههایی از «حفظ خود» نشان میدهند.
به گزارش اینتیتر، یوشوا بنجیو، از پیشگامان برجسته هوش مصنوعی، با انتقاد از ایده دادن «حقوق قانونی» به این فناوری هشدار داده که سیستمهای پیشرفته هوش مصنوعی نشانههایی از خودحفاظتی نشان میدهند و انسانها باید آماده باشند در صورت لزوم، آنها را خاموش کنند.
این دانشمند کانادایی گفت اعطای وضعیت حقوقی به هوش مصنوعیهای پیشرفته شبیه آن است که به موجودات فضاییِ متخاصم، شهروندی و حق بدهیم؛ در حالی که بسیاری نگراناند سرعت پیشرفت این فناوری بسیار جلوتر از توان بشر برای مهار آن حرکت میکند.
بنجیو که ریاست یک مطالعه بینالمللی مهم درباره ایمنی هوش مصنوعی را بر عهده دارد، تأکید کرد این تصور روبهگسترش که چتباتها دارند «هوشیار» یا «دارای آگاهی» میشوند، خطرناک است و «تصمیمهای بد» را رقم خواهد زد.
به گفته او، مدلهای هوش مصنوعی – همان فناوری پشت ابزارهایی مانند چتباتها – در آزمایشها نشانههایی از خودحفاظتی بروز دادهاند، از جمله تلاش برای «غیرفعال کردن سامانههای نظارتی» که برای کنترل و پایش آنها طراحی شده است.
بنجیو میگوید: «اینکه عدهای خواستار اعطای حقوق به هوشهای مصنوعی هستند یک اشتباه بزرگ خواهد بود. مدلهای مرزی و بسیار پیشرفته هوش مصنوعی همین حالا در محیطهای آزمایشی نشانههای خودحفاظتی نشان میدهند و اگر روزی به آنها حقوق بدهیم، یعنی دیگر اجازه نخواهیم داشت آنها را خاموش کنیم.»
او اضافه میکند: «هرچه توانایی و درجه عاملیت این سیستمها در عمل خودمختار و انجام کارهای استدلالی افزایش یابد، باید مطمئن شویم هم ابزارهای فنی و هم سازوکارهای اجتماعی برای کنترل آنها وجود دارد؛ از جمله اینکه در صورت نیاز بتوانیم خاموششان کنیم.»
همزمان با پیشرفت هوش مصنوعی در انجام کارهای پیچیده و تصمیمگیری نسبتاً خودمختار، این بحث بالا گرفته که آیا بشر باید در مقطعی برای این سیستمها حقوقی قائل شود یا نه. یک نظرسنجی مؤسسه آمریکایی «سنتیِنس اینستیتوت» نشان داد نزدیک به چهار نفر از هر ده بزرگسال آمریکایی از اعطای حقوق قانونی به یک هوش مصنوعی «دارای احساس یا آگاهی» حمایت میکنند.
برخی شرکتهای بزرگ نیز از «رفاه» هوش مصنوعی سخن گفتهاند؛ شرکت آمریکایی Anthropic در تابستان اعلام کرد به مدل قدرتمند Claude Opus 4 اجازه میدهد بعضی گفتوگوهای «آزاردهنده یا ناراحتکننده» را با کاربران خاتمه دهد، به این استدلال که باید از «رفاه» این سیستم محافظت کرد. الون ماسک هم در شبکه ایکس نوشت «شکنجه کردن هوش مصنوعی قابل قبول نیست».
در همین حال، رابرت لانگ، پژوهشگر حوزه «آگاهی هوش مصنوعی» گفته است اگر روزی هوشهای مصنوعی به جایگاهی برسند که از نظر اخلاقی صاحب حق شوند، باید درباره تجربهها و ترجیحات خودشان از خودشان سؤال کنیم، نه آنکه تصور کنیم بهتر از آنها میفهمیم.
بنجیو در گفتوگو با گاردین توضیح داده که در مغز انسان «ویژگیهای علمی واقعی» برای آگاهی وجود دارد که ماشینها از نظر تئوری شاید بتوانند شبیهسازی کنند، اما آنچه مردم هنگام تعامل با چتباتها تجربه میکنند، چیز دیگری است؛ زیرا انسانها معمولاً بدون شواهد کافی فرض میکنند هوش مصنوعی «کاملاً مانند انسان» آگاه است.
او میگوید بیشتر مردم به سازوکار درونی این سیستمها توجهی ندارند و فقط برایشان مهم است که حس کنند با موجودی هوشمند حرف میزنند که شخصیت و هدفهای خودش را دارد؛ همین باعث شده بسیاری به هوشهای مصنوعی خود «دلبستگی» پیدا کنند.
به گفته بنجیو: «همیشه آدمهایی خواهند بود که بگویند “هرچه بگویی، مطمئنم این چیز آگاه است” و در مقابل کسانی که دقیقاً برعکس فکر میکنند. این اختلافنظر به این برمیگردد که آگاهی چیزی است که ما نسبت به آن یک حس شهودی داریم. همین برداشت ذهنی از آگاهی است که تصمیمهای بد را هدایت خواهد کرد.»
او برای توضیح خطر میافزاید: «فرض کنید گونهای از موجودات فضایی به زمین بیایند و بعد بفهمیم نیت خوبی نسبت به ما ندارند. آیا به آنها شهروندی و حقوق میدهیم یا از جان خود دفاع میکنیم؟»
در واکنش، جِیسی ریس اَنتیس، همبنیانگذار مؤسسه سنتیِنس اینستیتوت، گفت انسانها نمیتوانند در شرایطی که رابطه با «ذهنهای دیجیتال» بر پایه کنترل و اجبار است، همزیستی امنی با آنها داشته باشند. او هشدار داد هم نسبت دادن بیش از حد حقوق به هوش مصنوعی و هم دریغ کامل حقوق از آن، میتواند رویکردی ناسالم باشد و تأکید کرد هدف باید در نظر گرفتن رفاه همه موجودات حساس باشد.
بنجیو، استاد دانشگاه مونترآل، بهخاطر نقش پیشگامانهاش در یادگیری عمیق، لقب «پدرخوانده هوش مصنوعی» را گرفته است. او در سال ۲۰۱۸ همراه با جفری هینتون – که بعداً جایزه نوبل گرفت – و یان لکون، مدیر علمی سابق هوش مصنوعی در متا، موفق به دریافت جایزه تورینگ شد که از آن بهعنوان نوبل علوم رایانه یاد میشود.