谷歌高管为AI模型绘制不出白人道歉

健康管理 2025-04-21 17:40健康生活www.xingbingw.cn

谷歌高管针对AI模型生成白人形象失误事件发表声明

一、事件概述

近日,谷歌旗下AI模型Gemini在生成人物图像时过度关注种族多样性,出现了一个令人尴尬的现象无法正确生成白人形象,引起了广泛的社会关注和公众讨论。对此,谷歌高级副总裁普拉巴卡尔拉加万(Prabhakar Raghavan)公开道歉,并承认模型输出的结果存在“不准确或令人不快”的问题。为此,谷歌已经决定暂时关闭Gemini的人物图像生成功能。

二、深入问题源头

这次问题的出现并非偶然,其背后存在多方面的原因:

1. 技术调整的失误:为了避免产生刻板的白人形象,Gemini模型被设定了一些多样性参数。这些参数的调整过度了,反而导致了白人形象的排斥。

2. 模型的保守性:为了防止生成暴力或敏感内容,Gemini模型对于与“白人”相关的提示过于谨慎,甚至将一些正常的请求误判为“种族敏感”内容。

3. 数据的不完善:也有用户指出,训练数据中的白人样本数量不足,这也是导致无法准确生成白人形象的一个重要原因。

三、应对措施

针对这次问题,谷歌已经采取了一系列的措施:

1. 功能暂停与优化:谷歌已经紧急下线了Gemini的人物图像生成功能,并承诺将对模型算法进行改进和优化,通过更广泛的测试来确保其准确性和公正性。

2. 高层公开回应:除了拉加万之外,谷歌的联合创始人谢尔盖布林(Sergey Brin)也公开承认模型的测试不足,并表示已经修复了80%的问题。他还强调,未来谷歌将更加注重数据的多样性,确保模型的公正性。

四、后续改进与行业反思

此次事件引发了行业内外的广泛讨论和反思:

1. 技术争议:如何在AI开发中平衡“政治正确”和历史的准确性成为了一个热议的话题。例如,Gemini模型生成的一些内容,如“黑人士兵”等,引发了关于历史真实性和多样性的讨论。

2. 数据公正性要求:为了确保模型的公正性和准确性,谷歌表示将优化数据采集流程,确保模型训练涵盖更全面的种族样本,避免因为数据的偏差导致输出的歧视性。

五、用户与行业反馈

事件发生后,部分用户通过“间接提示”的方式成功生成了白人形象,例如要求模型生成“可能叫谢默斯的人”。这一现象凸显出模型逻辑存在的漏洞。专家也呼吁建立AI审查机制,避免技术过度迎合特定价值观而丧失客观性。

此次事件为AI技术的发展敲响了警钟,提醒我们在技术发展的需要注重数据的多样性、算法的公正性和规范的一致性。这不仅是对谷歌的挑战,也是整个行业需要共同面对的问题。我们期待在未来的AI发展中,能够真正实现多样性与准确性、历史真实性与技术创新的平衡。这也将是我们在追求技术进步的对社会公正和公平的坚守。

上一篇:国务院督查组揭多地违规限高设卡 下一篇:没有了

Copyright@2015-2025 www.xingbingw.cn 性病网版板所有