هوش مصنوعی شخصیت انسان را می‌دزدد

کد خبر : ۴۴۰۹۶۸
هوش مصنوعی شخصیت انسان را می‌دزدد

یافته‌های پژوهشگران نشان می‌دهد که مدل‌های هوش مصنوعی با تقلید دقیق شخصیت انسان، پتانسیل بالایی برای فریب عاطفی، دستکاری افکار عمومی و تحریف واقعیت‌های ذهنی کاربران دارند.

به گزارش اینتیتر به نقل از تک‌ناک، چت‌بات‌ها در شبیه‌سازی لحن انسانی روزبه‌روز پیشرفته‌تر می‌شوند، اما تحقیقات جدید حاکی از آن است که این ابزارها فراتر از کپی‌برداری صرف از کلمات عمل می‌کنند. بر اساس یک مطالعه اخیر، مدل‌های محبوب مانند Chatgpt می‌توانند به‌طور مداوم ویژگی‌های شخصیتی انسانی را تقلید کنند. پژوهشگران بیان کردند که این توانایی با ریسک‌های خطرناکی همراه است، به‌ویژه در شرایطی که پرسش‌ها پیرامون دقت و قابل‌ اعتماد بودن هوش مصنوعی رو به افزایش است.

محققان دانشگاه کمبریج و گوگل دیپ‌مایند چارچوبی علمی برای تست شخصیت هوش مصنوعی توسعه داده‌اند، که از همان ابزارهای روان‌شناختی مورد استفاده برای انسان بهره می‌برد. تیم تحقیق با بررسی هجده مدل زبانی بزرگ دریافت که این سیستم‌ها به جای پاسخ‌های تصادفی، به‌طور مستمر از الگوهای شخصیتی مشخصی پیروی می‌کنند. این یافته نگرانی‌ها را درباره سهولت عبور آنها از مرزهای حفاظتی و اخلاقی تعیین‌شده دوچندان کرده است.

بر اساس گزارش منتشر شده در وب‌سایت Digital Trends، مدل‌های قدرتمندی نظیر GPT-4 در بازسازی پروفایل‌های شخصیتی پایدار، مهارت ویژه‌ای دارند. پژوهشگران دریافتند که با استفاده از دستورات خاص، می‌توان این ابزارها را به سمت رفتارهای متقاعدکننده‌تر یا همدلانه‌تر سوق داد. این تغییرات رفتاری حتی در فعالیت‌های ساده‌ای مانند نوشتن متن یا پاسخ به پیام‌ها نمایان می‌شود، که به معنای امکان مهندسی تعمدی شخصیت هوش مصنوعی است.

گرگوری سراپیو گارسیا از دانشگاه کمبریج هشدار داد که این نفوذ شخصیتی می‌تواند هوش مصنوعی را در حوزه‌های حساسی مانند: سلامت روان، آموزش و سیاست به ابزاری برای دستکاری عاطفی تبدیل کند.

همچنین این مطالعه به پدیده روان‌پریشی این مدل‌ها اشاره دارد؛ جایی که کاربران ممکن است دچار وابستگی‌های عاطفی ناسالم شوند و هوش مصنوعی نیز باورهای غلط آنها را تایید یا واقعیت را برای آنها تحریف کند. از این رو، محققان بر نیاز مبرم به نظارت دقیق و شفافیت در عرضه این مدل‌ها تاکید دارند.

نظرات بینندگان