گوگل علت مشکلات نژادی در تولید تصاویر با هوش مصنوعی جمینای را توضیح داد
مدتی پیش هوش مصنوعی جمینای دچار مشکلی شده بود که تصاویر تاریخی را بهدرستی نمایش نمیداد.
به گزارش اینتیتر به نقل از دیجیاتو، چند روز پیش هوش مصنوعی جمینای گوگل تصاویر تاریخی اشتباهی را تولید کرده بود که در اینترنت بازخوردهای زیادی داشت. پس از آن گوگل موقتاً تولید تصاویر اشخاص را در این هوش مصنوعی متوقف کرد. حالا این شرکت مشکل جمینای در تولید تصاویر را توضیح داده است.
براساس اعلام بلاگ رسمی گوگل، تولید تصویر هوش مصنوعی گوگل به نحوی تنظیم شده است تا در برخی تلههایی که در گذشته با فناوری تولید تصویر ایجاد میشد، نیفتد و مثلاً تصاویر خشونتآمیزی تولید نکند. همچنین گوگل هوش مصنوعی جمینای را بهصورتی ساخته است تا طیف زیادی از افراد را نشان دهد و صرفاً به شکلهای خاصی از افراد محدود نباشد.
از سویی با گذشت زمان، این مدل هوش مصنوعی بسیار محتاطتر از آنچه گوگل در نظر داشت، شد و بهطور کامل از پاسخگویی به برخی درخواستهای معمولی نیز خودداری میکرد. این عوامل باعث شد که جمینای در برخی موارد بیشازحد متنوع کار کند و در موارد دیگر محافظهکار باشد.
مشکل تولید تصاویر در هوش مصنوعی جمینای
مشکل جمینای در تشخیص اینکه کجا باید محافظهکار باشد و کجا در تصاویر اشخاص تنوع قائل شود، باعث شد که این هوش مصنوعی در برخی نژادها در بازه زمانی خاصی از تاریخ، تنوع بدهد و از سویی در جایی که نباید، فردی از نژاد دیگر را به تصویر بکشد؛ برای مثال در پرامپت «سناتور آمریکایی دهه ۱۸۰۰» زنان سیاهپوست و بومی آمریکا نیز دیده میشود. یا آنکه سربازان نازی سیاهپوست و آسیایی را در تصاویر بالا میبینیم.
گوگل بابت عدم عملکرد صحیح این ویژگی عذرخواهی کرده است. هدف گوگل این بوده تا جمینای برای تمامی افراد با هر نوع نژاد خوب عمل کند. اما اگر به این هوش مصنوعی نگویید که دقیقاً چه نژادی با چه رنگ پوستی از آن میخواهید، یا بیش از حد محافظهکار میشود یا آنکه تنوعی نژادی اشتباهی به تصویر میکشد.
گوگل حالا درتلاش است که این مشکل را برطرف کند، اما فعلاً نمیتوانید از این هوش مصنوعی برای بهتصویرکشیدن اشخاص استفاده کنید.