آیا هوش مصنوعی می‌تواند فضای آنلاین را امن‌تر کند؟

کد خبر : ۳۶۹۰۰۳
آیا هوش مصنوعی می‌تواند فضای آنلاین را امن‌تر کند؟

تحقیقات نشان می‌دهد که می‌توانیم از هوش مصنوعی برای کمک به امن‌تر کردن فضا‌های آنلاین بدون نیاز به قربانی کردن ارزش‌هایی مانند شفافیت و کنترل کاربر استفاده کنیم

به گزارش اینتیتر به نقل از آنا، تصور کنید در شبکه‌های اجتماعی گشت و گذار می‌کنید یا یک بازی آنلاین انجام می‌دهید، اما با نظرات توهین آمیز و آزار دهنده متوقف می‌شوید. چه می‌شود اگر یک ابزار هوش مصنوعی (AI) پیش از اینکه حتی آن را ببینید، برای حذف این محتوا وارد عمل شود؟

این داستان علمی تخیلی نیست. ابزار‌های هوش مصنوعی تجاری مانند توکس مد (ToxMod) و بادی گارد‌ای آی (Bodyguard.ai) در حال حاضر برای نظارت بر تعاملات در زمان واقعی در رسانه‌های اجتماعی و پلتفرم‌های بازی استفاده می‌شوند. آن‌ها می‌توانند رفتار سمی را تشخیص دهند و به آن پاسخ دهند. ایده نظارت همه جانبه هوش مصنوعی بر هر حرکت ما ممکن است منطقی به نظر برسد، اما این ابزار‌ها می‌توانند کلید تبدیل اینترنت به مکانی امن‌تر باشند.

با این حال، برای موفقیت هوش مصنوعی، باید ارزش‌هایی مانند حریم خصوصی، شفافیت، قابلیت توضیح و انصاف را در اولویت قرار دهد؛ بنابراین آیا می‌توانیم اطمینان حاصل کنیم که هوش مصنوعی می‌تواند برای بهتر کردن فضا‌های آنلاین ما مورد اعتماد باشد؟ دو پروژه تحقیقاتی اخیر در زمینه تعدیل مبتنی بر هوش مصنوعی نشان می‌دهد که این کار را می‌توان با کار بیشتر انجام داد.

منفی نگری به صورت آنلاین رشد می‌کند

مسمومیت آنلاین یک مشکل رو به رشد است. نزدیک به نیمی از جوانان نوعی تعامل آنلاین منفی را تجربه کرده اند و تقریبا یک نفر از هر پنج نفر آن‌ها زورگویی سایبری را تجربه کرده است.

چه یک اظهار نظر توهین آمیز باشد و چه یک آزار و اذیت مداوم، چنین تعاملات مضری به بخشی از زندگی روزمره بسیاری از کاربران اینترنت بدل شده است.

شدت مسمومیت آنلاین یکی از دلایلی است که دولت استرالیا پیشنهاد داده است رسانه‌های اجتماعی برای کودکان زیر ۱۴ سال ممنوع شود.

اما طراحی پلتفرم‌های آنلاین و ابزار‌های تعدیل نمی‌تواند به طور کامل به این مشکل اساسی اصلی بپردازد. از این رو باید برای به حداقل رساندن تعاملات مضر برای همه کاربران، نه فقط کودکان در پلتفرم‌های آنلاین تجدیدنظر کنیم.

متاسفانه، بسیاری از غول‌های فناوری که بر فعالیت‌های آنلاین کاربران تسلط دارند، در پذیرش مسئولیت‌های بیشتر کند عمل کرده اند و شکاف‌های قابل توجهی در معیار‌های اعتدال و ایمنی ایجاد کرده اند.

اینجاست که تعدیل هوش مصنوعی فعال فرصت ایجاد فضا‌های آنلاین امن‌تر و محترمانه‌تر را فراهم می‌کند. اما آیا هوش مصنوعی واقعا می‌تواند به این وعده عمل کند؟

همه ما می‌توانیم نقش ایفا کنیم

تحقیقات نشان می‌دهد که می‌توانیم از هوش مصنوعی برای کمک به امن‌تر کردن فضا‌های آنلاین بدون نیاز به قربانی کردن ارزش‌هایی مانند شفافیت و کنترل کاربر استفاده کنیم. اما باید اقدامات بیشتری انجام شود.

تا زمانی که شیوه‌های اخلاقی هوش مصنوعی به طور گسترده پذیرفته نشوند، کاربران باید مطلع بمانند. قبل از پیوستن به یک پلتفرم، بررسی کنید که آیا آن‌ها در مورد سیاست‌های خود شفاف هستند یا خیر و کنترل کاربر را بر تنظیمات اعتدال ارائه دهید.

اینترنت ما را به منابع، کار، بازی و جامعه متصل می‌کند. هر کسی حق دارد بدون آزار و اذیت و سواستفاده به این مزایا دسترسی داشته باشد. این به همه ما بستگی دارد که فعال باشیم و از فناوری هوشمندتر و اخلاقی‌تر که از ارزش‌ها و فضا‌های دیجیتال ما محافظت می‌کند، حمایت کنیم.

 

نظرات بینندگان