تلاش هکرها برای سوءاستفاده از هوش مصنوعی در جرایم سایبری

شرکت «آنتروپیک» اعلام کرد موفق شده تلاش هکرها برای سوءاستفاده از سامانه هوش مصنوعی «کلاد» خود را شناسایی و متوقف کند.
به گزارش اینتیتر به نقل از سیتنا، این افراد قصد داشتند از کلاد برای نوشتن ایمیلهای فیشینگ، تولید کدهای مخرب و دور زدن فیلترهای ایمنی استفاده کنند.
در گزارش این شرکت نگرانیها درباره استفاده روزافزون از ابزارهای هوش مصنوعی در جرایم سایبری برجسته شد، که درخواستها برای تقویت تدابیر حفاظتی از سوی شرکتهای فناوری و نهادهای قانونگذار را افزایش داده است.
به گفته آنتروپیک، سامانههای داخلی شرکت جلوی این حملات را گرفتهاند و مطالعات موردی برای روشنگری منتشر میشود.
این گزارش به تلاشهایی اشاره میکند که شامل تهیه ایمیلهای فیشینگ هدفمند، نوشتن یا اصلاح بخشهایی از کدهای مخرب و دور زدن محدودیتها با درخواستهای تکراری بوده است.
همچنین، مواردی از تلاش برای راهاندازی کارزارهای نفوذ با تولید انبوه پیامهای اقناعی و کمک به هکرهای کمتجربه با دستورالعملهای گامبهگام ذکر شده است.
آنتروپیک که با حمایت شرکتهایی چون «آمازون» و «آلفابت» فعالیت میکند، جزئیات فنی مانند آدرسهای آیپی یا محتوای درخواستها را منتشر نکرد، اما اعلام کرد حسابهای کاربری مرتبط را مسدود کرده، و پس از شناسایی این فعالیتها فیلترهای خود را سختگیرانهتر کرده است.
کارشناسان هشدار میدهند که مجرمان بیشازپیش به هوش مصنوعی روی میآورند تا کلاهبرداریها را واقعیتر جلوه دهند و حملات سایبری را تسریع کنند. این ابزارها میتوانند پیامهای فیشینگ باورپذیر بنویسند، بخشی از توسعه بدافزار را خودکار کنند، و حتی در برنامهریزی حملات کمک کنند.
پژوهشگران امنیتی تأکید میکنند که هرچه مدلهای هوش مصنوعی قدرتمندتر شوند، خطر سوءاستفاده از آنها افزایش مییابد، مگر آنکه شرکتها و دولتها بهسرعت دست به اقدام بزنند.
آنتروپیک میگوید دستورالعملهای ایمنی خود را سختگیرانهتر کرده است. شرکتهایی مانند «مایکروسافت»، «اوپناِیآی»، و «گوگل» نیز با نگرانیهای مشابهی درباره امکان سوءاستفاده از مدلهای هوش مصنوعیشان روبهرو بودهاند.
در همین حال، دولتها در حال حرکت به سمت تنظیم مقررات هستند. اتحادیه اروپا روی «قانون هوش مصنوعی» و ایالات متحده روی تعهدات ایمنی داوطلبانه توسط توسعهدهندگان بزرگ تمرکز کردهاند.