评论

AI太懂人情世故了,种族逆向歧视扩及到AI

原标题:AI太懂人情世故了,种族逆向歧视扩及到AI

谷歌AI因无法绘制白人形象引发争议,公司道歉并承诺改进

近日,谷歌公司推出的AI模型Gemini因无法绘制白人形象而引发了广泛争议。这款具有图像生成功能的AI模型,在用户的测试中多次未能生成白人形象的图片,而是倾向于生成有色人种的形象。

此现象一经曝光,立刻在社交媒体上引发了热议。许多用户对此表示困惑和不满,甚至有人认为这是AI模型存在反白人的偏见。他们纷纷在社交媒体上分享自己的经历,指出无论他们要求AI生成什么类型的图像,结果总是倾向于有色人种。

针对这一事件,谷歌公司迅速做出了回应。公司高级副总裁普拉巴卡尔·拉加万在一份声明中向用户道歉,并承认AI模型在生成图像时未能达到预期结果。他表示,生成的一些图像可能不准确或者甚至令人不快,对此他们深感抱歉。

拉加万解释称,当他们在Gemini中设置图像生成功能时,已经做出了调整,以确保AI不会陷入过去在图像生成技术中看到的一些陷阱,例如生成暴力、露骨或真人图像。然而,他们并未预料到AI会在生成人物形象时产生这样的偏差。

为了解决这个问题,谷歌公司表示将立即着手改进Gemini模型,以提高其在生成人物形象时的准确性和多样性。他们希望通过不断学习和优化,使AI能够更好地理解和绘制不同种族和肤色的人物形象。

这一事件也引发了人们对AI技术的深入思考和讨论。许多网友认为,AI模型在生成图像时应该更加注重多样性和包容性,避免出现任何形式的偏见和歧视。同时,他们也对谷歌公司的道歉和承诺表示赞赏,并期待未来AI技术能够不断进步,为人类带来更多便利和惊喜。返回搜狐,查看更多

责任编辑:

平台声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
阅读 ()
大家都在看
推荐阅读