تلاش هکرها برای سوءاستفاده از هوش مصنوعی در جرایم سایبری

کد خبر : ۴۲۴۷۵۰
تلاش هکرها برای سوءاستفاده از هوش مصنوعی در جرایم سایبری

شرکت «آنتروپیک» اعلام کرد موفق شده تلاش هکرها برای سوءاستفاده از سامانه هوش مصنوعی «کلاد» خود را شناسایی و متوقف کند.

به گزارش اینتیتر به نقل از  سیتنا، این افراد قصد داشتند از کلاد برای نوشتن ایمیل‌های فیشینگ، تولید کدهای مخرب و دور زدن فیلترهای ایمنی استفاده کنند.

در گزارش این شرکت نگرانی‌ها درباره استفاده روزافزون از ابزارهای هوش مصنوعی در جرایم سایبری برجسته شد، که درخواست‌ها برای تقویت تدابیر حفاظتی از سوی شرکت‌های فناوری و نهادهای قانون‌گذار را افزایش داده است. 

به گفته آنتروپیک، سامانه‌های داخلی شرکت جلوی این حملات را گرفته‌اند و مطالعات موردی برای روشن‌گری منتشر می‌شود.

این گزارش به تلاش‌هایی اشاره می‌کند که شامل تهیه ایمیل‌های فیشینگ هدفمند، نوشتن یا اصلاح بخش‌هایی از کدهای مخرب و دور زدن محدودیت‌ها با درخواست‌های تکراری بوده است. 

همچنین، مواردی از تلاش برای راه‌اندازی کارزارهای نفوذ با تولید انبوه پیام‌های اقناعی و کمک به هکرهای کم‌تجربه با دستورالعمل‌های گام‌به‌گام ذکر شده است.

آنتروپیک که با حمایت شرکت‌هایی چون «آمازون» و «آلفابت» فعالیت می‌کند، جزئیات فنی مانند آدرس‌های آی‌پی یا محتوای درخواست‌ها را منتشر نکرد، اما اعلام کرد حساب‌های کاربری مرتبط را مسدود کرده، و پس از شناسایی این فعالیت‌ها فیلترهای خود را سخت‌گیرانه‌تر کرده است.

کارشناسان هشدار می‌دهند که مجرمان بیش‌ازپیش به هوش مصنوعی روی می‌آورند تا کلاهبرداری‌ها را واقعی‌تر جلوه دهند و حملات سایبری را تسریع کنند. این ابزارها می‌توانند پیام‌های فیشینگ باورپذیر بنویسند، بخشی از توسعه بدافزار را خودکار کنند، و حتی در برنامه‌ریزی حملات کمک کنند.

پژوهشگران امنیتی تأکید می‌کنند که هرچه مدل‌های هوش مصنوعی قدرتمندتر شوند، خطر سوءاستفاده از آنها افزایش می‌یابد، مگر آنکه شرکت‌ها و دولت‌ها به‌سرعت دست به اقدام بزنند.

آنتروپیک می‌گوید دستورالعمل‌های ایمنی خود را سخت‌گیرانه‌تر کرده است. شرکت‌هایی مانند «مایکروسافت»، «اوپن‌اِی‌آی»، و «گوگل» نیز با نگرانی‌های مشابهی درباره امکان سوءاستفاده از مدل‌های هوش مصنوعی‌شان روبه‌رو بوده‌اند.

در همین حال، دولت‌ها در حال حرکت به سمت تنظیم مقررات هستند. اتحادیه اروپا روی «قانون هوش مصنوعی» و ایالات متحده روی تعهدات ایمنی داوطلبانه توسط توسعه‌دهندگان بزرگ تمرکز کرده‌اند.

نظرات بینندگان