0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

谷歌组建专门道德团队,对抗AI偏见问题

DPVg_AI_era ? 来源:未知 ? 作者:李倩 ? 2018-11-12 10:22 ? 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

谷歌认为,比起杀人AI机器人,我们更该担心的是AI偏见问题。谷歌提出AI技术开发的道德准则,成立了专门的机器学习道德部门,对公司的产品和服务进行分析测试,提出改进意见,尽可能避免AI偏见的产生。

在去年举行的谷歌会议上,谷歌当时的人工智能(AI)负责人John Giannandrea表示,我们不需要担心杀手机器人,相反,我们需要担心的是AI偏见。

“如果要说真正的安全问题,那就是如果我们给这些系统提供有偏见的数据,那么生成的AI模型就会有偏见。”他说。

这是谷歌过去一直在努力解决的问题。2015年6月,谷歌照片应用的算法曾经错误地将黑人分类为“大猩猩”,引发了轩然大波。因此,从IBM到Airbnb,每家公司都在努力确保自己算法不会出现类似的偏差。

最近一段时间,谷歌为解决AI偏见又上了紧箍咒。

对于谷歌机器学习道德、信任和安全主管Jen Gennai来说,防止出现数据和AI偏见实际上就是他的工作内容。Gennai负责领导一个跨公司的团队,对谷歌的新产品和服务进行分析和咨询,以确保所有新产品都遵守这一道德标准。

“如果我们要打造一项新技术,我们需要确保它从一开始就走在正确的轨道上。”她说。

谷歌制定AI技术开发七大准则

今年6月,Google首席执行官Sundar Pichai发布了该公司的人工智能原则,指导谷歌在这些方面的工作和研究,包括确保Google员工不会制造或加强不公平的AI偏见。

Pichai表示,AI的开发和使用将在未来许多年内对社会产生重大影响。作为AI的领导者,我们感到自己有责任做到这一点。

这种关于人AI技术的新立场是受到谷歌出现问题的影响而提出的。除了“大猩猩”事件之外,哈佛大学研究人员Latanya Sweeney发现谷歌搜索中的存在种族歧视。当搜索类似黑人名字时,会比搜索类似白人名字更有可能出现与“被逮捕”相关的广告。

“这些现象都是我们的部门成立的原因,不应该让我们的用户看到这些,我们需要首先阻止这些偏见的产生。”Gennai说。

谷歌谷歌机器学习道德、信任和安全负责人Jen Gennai

现在每当谷歌推出新产品时,都会接受Gennai及其团队的严格测试。来自技术、法律、隐私和社会科学等领域的专家聚集在一起,根据谷歌制定的AI准则对每个产品进行分析。

这种测试主要是找出产品的优缺点。“我们并不是公司里可怕的监工。”Gennai说。“我们想的是,希望公司能推出最好的产品,所以我们要找出所有可能出错的漏洞,以便解决问题。

在谷歌智能助理给真人打电话的功能上,产品团队事先就AI如何处理不同口音做了大量工作,但Gennai的测试团队提出了一些其他问题。

“我们研究了用户如何与之互动,如何利用技术降低AI的偏见。我们提出了问题,要如何判断用户是不是有口吃或语言障碍。产品开发团队做了很多工作,但我们试图缩小所有差距,提升产品表现。”她说。

改进数据集质量

改善AI偏见的一种方法是改进数据集。 Gennai举了一个婚礼的例子。

过去,如果你在Google图片上搜索“婚礼”,得到的结果是白人穿着婚礼礼服的照片,因为算法是在基于西方人的数据源上进行训练的。然而,这对印度或中国的谷歌用户就不合适。谷歌要求人们提交世界各地的婚礼照片,以改善数据集。

“现在,我们得到了印度用户的大量反馈,他们向我们发送了许多色彩缤纷的婚礼照片,”我们希望了解我们现有资源,创建偏见相对较小的新资源。”

让用户也能理解算法

了解谷歌算法的内部工作流程,有助于团队更好地进行修改。比如用谷歌搜索“CEO”时出现的问题,当你在搜索栏中键入“CEO”时,你会看到一些穿着西装打着领带的白人男子的图片。

Gennai的团队调查数据时发现,这个现象往往并不是人为偏见,而是技术上的偏见。

“在算法看来,海军蓝像素就等于CEO,而且因为白人男性更容易穿蓝色西装,所以这纯粹是模型学习的方式问题。但这表明我们需要仔细检查数据。

让谷歌用户了解公司算法的运作方式也是很重要的。谷歌用户现在可以查看为你投放广告的原因,并查看由算法做出的决定。用户还可以查看为何会在谷歌搜索结果中看到某个链接,具体取决于用户之前的搜索记录。 Gennai表示,这是为了帮助用户更多地了解谷歌,以便他们可以信任谷歌搜索。

透明度也是谷歌AI原则的一部分。但是“与用户共享一个完整的算法根本没有用,反而可能会引起更多的混淆,并感觉我们是故意混淆。但是,用用户可读的语言解释算法,将有助于人们了解谷歌正在尝试做的事情,即使我们做错了。”Gennai说。

解决AI偏见,光靠谷歌不够

说到最后,偏见的根源其实还是来自人类。“我们每个人都有偏见,我们现有的全部数据源,都是建立在我们每个人和过去的历史偏见之上。”

但是,仅仅因为这一点,并不能说我们无法阻止偏见。相反,谷歌试图尽可能调查和解释最大的偏见来源,并尝试改变。

从这个角度看,谷歌的AI准则在公司内部非常重要,也是因为这个原因,谷歌为公司外的人创建了“负责任的AI”开发实践项目,这些人正在使用其开源软件来构建人工智能和机器学习算法。

“我们希望能够以身作则,提供相关工具和知识,让更多的人能够遵循这些准则。”她说。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 谷歌
    +关注

    关注

    27

    文章

    6233

    浏览量

    108570
  • AI
    AI
    +关注

    关注

    88

    文章

    35760

    浏览量

    282528
  • 机器学习
    +关注

    关注

    66

    文章

    8513

    浏览量

    135107

原文标题:谷歌为AI再上“紧箍咒”:道德团队审查产品,确保AI不作恶

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    AI输出“偏见”,人类能否信任它的“三观”?

    ,大语言模型(LLM)正悄无声息地传播全球各地的刻板印象。从性别歧视、文化偏见,到语言不平等,AI正在把人类的“偏见行李”打包、升级,并以看似权威的方式输出到世界
    的头像 发表于 08-04 13:43 ?689次阅读
    <b class='flag-5'>AI</b>输出“<b class='flag-5'>偏见</b>”,人类能否信任它的“三观”?

    嵌入式AI技术漫谈 如何组建一个AI项目开发小组

    我们来谈一谈如何组建一个AI项目开发小组: 为什么要为嵌入式AI项目 组建一个专门的开发小组 相对于以往成熟的项目开发体系,嵌入式
    的头像 发表于 06-11 16:34 ?766次阅读

    谷歌新一代 TPU 芯片 Ironwood:助力大规模思考与推理的 AI 模型新引擎?

    Cloud 客户开放,将提供 256 芯片集群以及 9,216 芯片集群两种配置选项。 ? 在核心亮点层面,Ironwood 堪称谷歌首款专门AI 推理精心设计的 TPU 芯片,能够有力支持大规模思考
    的头像 发表于 04-12 00:57 ?2641次阅读

    英伟达GTC2025亮点:NVIDIA、Alphabet 和谷歌携手开启代理式与物理AI的未来

    联合计划涵盖基础设施和开源模型优化,在机器人、药物研发等领域取得巨大进展 具有长期合作伙伴关系的 NVIDIA、Alphabet 和谷歌宣布了多项新计划,旨在推动 AI 发展、普及 AI 工具
    的头像 发表于 03-21 15:10 ?1268次阅读
    英伟达GTC2025亮点:NVIDIA、Alphabet 和<b class='flag-5'>谷歌</b>携手开启代理式与物理<b class='flag-5'>AI</b>的未来

    字节豆包大模型团队成立AGI长期研究团队Seed Edge

     据1月24日的报道,字节跳动旗下的豆包大模型团队已悄然组建了一个专注于通用人工智能(AGI)的长期研究团队,内部代号为“Seed Edge”。该团队旨在鼓励成员们大胆探索那些具有不确
    的头像 发表于 01-24 15:03 ?1710次阅读

    谷歌Gemini AI目标年底用户达5亿

    近日,谷歌CEO桑达尔·皮查伊在内部会议上向员工透露,他对公司自主研发的Gemini AI技术充满信心,认为其能力已经超越了当前的竞争对手。这一表态不仅彰显了谷歌AI领域的雄心壮志,
    的头像 发表于 01-18 11:30 ?986次阅读

    谷歌加速AI部门整合:AI Studio团队并入DeepMind

    近日,谷歌正紧锣密鼓地推进其人工智能(AI)部门的整合工作。据谷歌AI Studio主管Logan Kilpatrick在领英页面上的透露,谷歌
    的头像 发表于 01-13 14:40 ?825次阅读

    英伟达组建ASIC团队,挖掘台湾设计服务人才

    英伟达自2024年中旬起,便开始了从台湾地区半导体公司挖掘设计服务人才的行动。这一系列举措旨在组建自家的ASIC(专用集成电路)团队,以在现有的Tensor Core GPU之外,开辟一条全新的AI
    的头像 发表于 01-03 14:39 ?783次阅读

    AI眼镜形态席卷可穿戴市场!谷歌眼镜几次“流产”,将靠AI翻盘

    ? 电子发烧友网报道(文/莫婷婷)在ChatGPT进化史上,绕不开的一家厂商是谷歌。2024年12月,谷歌发布 Gemini 2.0,该产品被称为登顶AI巅峰、秒杀ChatGPT O1。始终走在
    的头像 发表于 12-26 00:12 ?3720次阅读

    OpenAI投资道德算法研究

    近日,据外媒最新报道,人工智能领域的领军企业OpenAI正在积极投资学术研究,致力于开发一种能够预测人类道德判断的算法。这一举措无疑将为人工智能的道德发展注入新的活力。 据了解,OpenAI已经向
    的头像 发表于 11-26 10:20 ?684次阅读

    NVIDIA与谷歌量子AI部门达成合作

    NVIDIA CUDA-Q 平台使谷歌量子 AI 研究人员能够为其量子计算机创建大规模的数字模型,以解决设计中面临的各种挑战
    的头像 发表于 11-20 09:39 ?797次阅读

    英伟达与谷歌携手加速量子计算设备设计

    英伟达近日宣布,将与谷歌量子AI团队展开合作,共同推进量子计算软硬件工具的研发。双方将利用英伟达CUDA-Q平台提供的模拟支持,加快设计谷歌下一代量子计算设备。
    的头像 发表于 11-19 16:21 ?618次阅读

    AI for Science:人工智能驱动科学创新》第4章-AI与生命科学读后感

    的深入发展。 3. 挑战与机遇并存 尽管AI在生命科学领域取得了显著的成果,但也面临着诸多挑战。例如,数据隐私、算法偏见、伦理道德等问题都需要我们认真思考和解决。同时,如何更好地将AI
    发表于 10-14 09:21

    AI for Science:人工智能驱动科学创新》第二章AI for Science的技术支撑学习心得

    偏见、伦理道德等问题。此外,如何更好地将AI与科学研究人员的传统工作模式相融合,也是一个亟待解决的问题。未来,随着技术的不断进步和应用场景的拓展,AI for Science有望在更多
    发表于 10-14 09:16

    谷歌为全球AI教育设立1.2亿美元基金

    在联合国未来峰会上,谷歌CEO桑达尔·皮查伊发表了一场激动人心的演讲,他将人工智能(AI)誉为“迄今为止最具变革性的技术”,并承诺将这一力量用于推动全球教育进步。为此,谷歌宣布设立一项规模庞大的“全球
    的头像 发表于 09-25 14:32 ?672次阅读