• 海外交通史博物馆信息网
  • 您的位置:首页 >> 国内新闻 >> 正文

    俄罗斯出了款风靡西方的AI变脸App,却把美国政客吓坏了

    发表时间:2019-09-17 信息来源:www.leportico.com 浏览次数:1710

     

    AI Planet 2011.7.19我想分享

    FaceApp的基本原理是通过算法获得照片中人脸的图像,并根据数据库中的其他图像执行表情调整。

    文字|奇点,易莹

    公共号码| AI Planet

    目前,NetApp应用FaceApp引发了一场小小的互联网恐慌,这是自2017年1月FaceApp诞生以来第三次重大互联网争议 - 窃取用户隐私。

    FaceApp是Android和iOS上流行的“变脸”应用程序。据说,在获得用户的“第一手”照片后,该应用程序将在未经用户明确许可的情况下放置用户的数据。通过俄罗斯并在云中运营。

    它不仅不像Apple自己的应用程序那样在设备上处理,它不像iOS上的所有其他第三方软件那样清晰。

    因此,FaceApp用户现在开始担心“自我”是否实际受到监控。

    对于这场骚动,FaceApp创始人Yaroslav Goncahrov回应了以下回复:

    1.用户数据不会传输到俄罗斯,但会在云中处理;

    2.仅上传用户选择的照片进行编辑。从未将手机中的任何其他照片传输到云端;

    3.上传云的原因是为了确保用户不会为每次编辑重复上传照片,并且大多数照片将在上传日期后48小时内删除;

    4.用户还可以请求删除所有用户数据。用户可以通过转到“设置”,然后支持并选择“报告错误”,使用主题行消息中的“隐私”一词来完成此操作。

    最后,他强调:“我们绝不会向任何第三方出售或分享任何用户数据。”

    但是,FaceApp在其隐私政策中明确指出:

    “您授予FaceApp永久,不可撤销,非独占,免版税,全球,全额付款,可转让的从属许可证,可以使用,复制,修改,改编,发布,翻译,公开执行和显示您的用户内容。”

    换句话说,从您开始使用FaceApp的那一刻起,您出于商业目的默认为“您的脸”。

    FaceApp因涉嫌种族歧视而道歉

    FaceApp是俄罗斯应用开发公司Wireless Lab的产品。

    其创始人Goncharov是俄罗斯圣彼得堡的开发商和企业家。他此前曾担任俄罗斯互联网巨头Yandex的执行官,后来创建了该公司以开发移动应用程序。

    自2016年以来,Goncharov一直领导团队开发FaceApp。

    随着FaceApp的普及,公司名称从无线实验室改为FaceApp。

    作为“革命性”的自画像滤镜,FaceApp使用人工智能处理照片变得前所未有的简单。

    例如,你可以对P微笑,带你去看看不同年龄段的自己,甚至让你瞬间成为异性。

    除此之外,真正让FaceApp独一无二的是它的技术 - 这个有趣的工具实际上使用深度神经网络技术来改变你的脸部外观,让你看起来更开朗,而不是依赖于基本级别的照片编辑。来拍摄。

    这样做的结果是让你更自然地笑,你的眼睛更大,你的牙齿更白。在年龄和性别的转变中,你也可以看到老人自己和“变性”的外表。

    然而,自2017年成立以来,FaceApp一再受到指责。

    例如,一些用户指出FaceApp中有一个名为“hotness”的过滤功能,它可以减轻图像中人物的肤色。

    这种所谓的“美白”功能也被指责为“种族歧视”。

    面对这一指控,Goncharov也通过电子邮件道歉:

    “我们为这个严重的问题道歉。这种现象的主要原因来自支持应用程序的神经网络的'副作用',其训练数据中的偏差问题,而不是预期的行为。我们现在调整了滤波器效果这是第一次消除任何不利影响。“

    虽然FaceApp的解释是AI系统训练数据存在问题,而且支持FaceApp过滤效果的AI技术,但确实包含了一些开源数据库代码。

    对此,Goncharov没有推卸责任,坦率地说,用于训练“热度”过滤器的数据集是他们自己的,不是公共数据集,这一事件仍然是FaceApp的内部疏忽。

    由于这场风暴,FaceApp在将过滤器从“hotness”更改为“spark”后删除了过滤器。

    几个月后,FaceApp推出的几个过滤器引起了相应的波形,即“亚洲”,“黑色”,“高加索”和“印度(印度”),选择不同的过滤器将照片中的肖像修改为适当的人。

    这场风暴也以移除过滤器结束。

    如何消除AI算法偏差?

    这不是互联网公司第一次因算法偏见而引起争议。

    2015年,谷歌的照片应用程序谷歌照片错误地将两个黑人称为“大猩猩”。为此,Google删除了Google相册中的“Gorilla”类别。 Flickr的自动标记系统也错误地将黑色照片标记为“猴子”或“动物”。

    2016年,微软的人工智能聊天机器人Tay在推出后不到一天就变成了“反犹太主义者”,并被微软紧急撤下。

    Snapchat还推出了一个“黄脸”过滤器,允许用户“成为”一个黄色种族,并受到种族歧视的抗议和抵制。

    因为人工智能是通过机器学习,它使用大量数据让计算机自己学习,从而形成算法。因此,先前数据集的偏差,值和人类行为将反映在最终算法中。

    例如,如果研究人员给出具有较高男性工资和较好职位的简历数据集,则相应的算法将具有类似的特征。

    2014年,亚马逊推出了人工智能招聘引擎 - 算法筛选系统,试图帮助亚马逊在招聘过程中过滤其简历。

    研发团队开发了500个模型,同时教授算法识别简历中出现的50,000个术语;这允许算法学习分配给不同能力的权重。

    这听起来很高,但随着时间的推移,开发团队发现该算法对男性候选人有明显的“喜欢”,当算法识别出“女性和女性”以及其他相关词时,它会使用“偏见”给女性简历一个相对的低分。

    例如,女子足球俱乐部等甚至直接将学生从两所女子学校降级。随着“偏见问题”的加剧,这种情况现在引起了学术界和业界的特别关注。

    不久前,麻省理工学院的计算机科学与人工智能实验室开发了一种新的基于深度学习的人工智能预测模型,用于提前五年预测乳腺癌病变。

    为了确保白人妇女和黑人妇女的预测同样准确,该团队使用更多样化的数据进行培训。在这个问题上,研发团队有意识地使用了“更公平”的数据。

    然而,要真正消除人工智能算法中的“偏见”,仅仅填写“更公平”的数据是不够的。我们真正需要消除的是:根深蒂固的“人类思想中的偏见”。

    “俄罗斯软件,美国没有使用”

    尽管存在算法偏差或隐私问题,但FaceApp以其独特的功能吸引了众多粉丝。

    自2017年“种族歧视”活动以来,FaceApp积累了超过8000万活跃用户,现已成为121个国家iOS App Store的头号应用。它的粉丝也涵盖了体育,音乐和政界。

    最近,美国民主党民主党全国委员会(DNC)发出预警,警告他们不要将FaceApp用于改变面部的应用程序。参议院少数党领袖Chuck Schumer也正式要求联邦调查局和联邦贸易委员会对该申请进行国家安全调查。

    那么,美国政府担心的隐私问题确实存在吗?那就是探索“云”(即服务器)不在俄罗斯。

    实际上,这些服务器主要在美国,而不是俄罗斯。根据福布斯的说法,“FaceApp.io的服务器位于美国的亚马逊数据中心。”

    当然,也有一些服务器也由谷歌在其他国家托管,包括爱尔兰和新加坡。此外,FaceApp使用第三方代码。

    当然,由于FaceApp的开发公司位于圣彼得堡,因此这些面孔将在俄罗斯进行查看和处理。与此同时,这些亚马逊数据中心的数据也将反映在俄罗斯计算机上。

    俄罗斯是否真的因“隐私”问题而泄密?无论我们是否相信,FaceApp的隐私问题引起了参议院少数党领袖和纽约民主党参议员查克舒默的注意,FaceApp再一次被推向公众舆论。

    它被美国军方解雇并被谷歌出售。波士顿成立于27年前,今年将出售SpotMini!

    芯片是否直接连接到大脑?马斯克发布了“脑后插管”黑色技术,允许人类与AI一起生活

    华为1300多年前发布了世界上第一个为AI唐诗,一键唱歌,唐朝

    中国将在2020年首次探索火星!人工智能如何成为外星生命的探路者?

    收集报告投诉

    FaceApp的基本原理是通过算法获得照片中人脸的图像,并根据数据库中的其他图像执行表情调整。

    文字|奇点,易莹

    公共号码| AI Planet

    目前,NetApp应用FaceApp引发了一场小小的互联网恐慌,这是自2017年1月FaceApp诞生以来第三次重大互联网争议 - 窃取用户隐私。

    FaceApp是Android和iOS上流行的“变脸”应用程序。据说,在获得用户的“第一手”照片后,该应用程序将在未经用户明确许可的情况下放置用户的数据。通过俄罗斯并在云中运营。

    它不仅不像Apple自己的应用程序那样在设备上处理,它不像iOS上的所有其他第三方软件那样清晰。

    因此,FaceApp用户现在开始担心“自我”是否实际受到监控。

    对于这场骚动,FaceApp创始人Yaroslav Goncahrov回应了以下回复:

    1.用户数据不会传输到俄罗斯,但会在云中处理;

    2.仅上传用户选择的照片进行编辑。从未将手机中的任何其他照片传输到云端;

    3.上传云的原因是为了确保用户不会为每次编辑重复上传照片,并且大多数照片将在上传日期后48小时内删除;

    4.用户还可以请求删除所有用户数据。用户可以通过转到“设置”,然后支持并选择“报告错误”,使用主题行消息中的“隐私”一词来完成此操作。

    最后,他强调:“我们绝不会向任何第三方出售或分享任何用户数据。”

    但是,FaceApp在其隐私政策中明确指出:

    “您授予FaceApp永久,不可撤销,非独占,免版税,全球,全额付款,可转让的从属许可证,可以使用,复制,修改,改编,发布,翻译,公开执行和显示您的用户内容。”

    换句话说,从您开始使用FaceApp的那一刻起,您出于商业目的默认为“您的脸”。

    FaceApp因涉嫌种族歧视而道歉

    FaceApp是俄罗斯应用开发公司Wireless Lab的产品。

    其创始人Goncharov是俄罗斯圣彼得堡的开发商和企业家。他此前曾担任俄罗斯互联网巨头Yandex的执行官,后来创建了该公司以开发移动应用程序。

    自2016年以来,Goncharov一直领导团队开发FaceApp。

    随着FaceApp的普及,公司名称从无线实验室改为FaceApp。

    作为一款“革命性”自拍摄影滤镜,FaceApp采用人工智能技术以前所未有的方式处理照片。

    例如,它可以让你在P上微笑,带你去看看不同年龄段的自己,甚至让你立刻变成异性恋。

    除此之外,真正让FaceApp与众不同的是它的技术 - 一种有趣的工具,它实际上使用深度神经网络来改变你的脸部外观,让你看起来更外向,而不是依赖于基本的照片编辑。

    结果是你更自然地笑,拥有更大的眼睛和更白的牙齿。在年龄和性别转换方面,我们也可以看到旧的自我和“变性”的外表。

    然而,自2017年诞生以来,FaceApp一再受到指责。

    例如,一位用户指出FaceApp有一个名为“hotness”的过滤器,可以减轻图像中人物的肤色。

    这种所谓的“美白”功能也被指责为“种族歧视”。

    面对指控,Goncharov还通过电子邮件声明道歉:

    “我们为这个严肃的问题道歉。造成这种现象的主要原因是神经网络的”副作用“,它为应用提供了支持。这是训练数据中的一个有偏见的问题,而不是预期的行为。目前,我们已经首次调整过滤效果,以消除任何不利影响。

    虽然FaceApp的解释是AI系统训练数据的问题,但支持FaceApp过滤效果的AI技术确实包含一些开源数据库代码。

    对此,Goncharov没有推卸责任,坦率地说,用于训练“热度”过滤器的数据集是他们自己的,不是公共数据集,这一事件仍然是FaceApp的内部疏忽。

    由于这场风暴,FaceApp在将过滤器从“hotness”更改为“spark”后删除了过滤器。

    几个月后,FaceApp推出的几个过滤器引起了相应的波形,即“亚洲”,“黑色”,“高加索”和“印度(印度”),选择不同的过滤器将照片中的肖像修改为适当的人。

    这场风暴也以移除过滤器结束。

    如何消除AI算法偏差?

    这不是互联网公司第一次因算法偏见而引起争议。

    2015年,谷歌的照片应用程序谷歌照片错误地将两个黑人称为“大猩猩”。为此,Google删除了Google相册中的“Gorilla”类别。 Flickr的自动标记系统也错误地将黑色照片标记为“猴子”或“动物”。

    2016年,微软的人工智能聊天机器人Tay在推出后不到一天就变成了“反犹太主义者”,并被微软紧急撤下。

    Snapchat还推出了一个“黄脸”过滤器,允许用户“成为”一个黄色种族,并受到种族歧视的抗议和抵制。

    因为人工智能是通过机器学习,它使用大量数据让计算机自己学习,从而形成算法。因此,先前数据集的偏差,值和人类行为将反映在最终算法中。

    例如,如果研究人员给出具有较高男性工资和较好职位的简历数据集,则相应的算法将具有类似的特征。

    2014年,亚马逊推出了人工智能招聘引擎 - 算法筛选系统,试图帮助亚马逊在招聘过程中过滤其简历。

    研发团队开发了500个模型,同时教授算法识别简历中出现的50,000个术语;这允许算法学习分配给不同能力的权重。

    这听起来很高,但随着时间的推移,开发团队发现该算法对男性候选人有明显的“喜欢”,当算法识别出“女性和女性”以及其他相关词时,它会使用“偏见”给女性简历一个相对的低分。

    例如,女子足球俱乐部等甚至直接将学生从两所女子学校降级。随着“偏见问题”的加剧,这种情况现在引起了学术界和业界的特别关注。

    不久前,麻省理工学院的计算机科学与人工智能实验室开发了一种新的基于深度学习的人工智能预测模型,用于提前五年预测乳腺癌病变。

    为了确保白人妇女和黑人妇女的预测同样准确,该团队使用更多样化的数据进行培训。在这个问题上,研发团队有意识地使用了“更公平”的数据。

    然而,要真正消除人工智能算法中的“偏见”,仅仅填写“更公平”的数据是不够的。我们真正需要消除的是:根深蒂固的“人类思想中的偏见”。

    “俄罗斯软件,美国没有使用”

    尽管存在算法偏差或隐私问题,但FaceApp以其独特的功能吸引了众多粉丝。

    自2017年“种族歧视”活动以来,FaceApp积累了超过8000万活跃用户,现已成为121个国家iOS App Store的头号应用。它的粉丝也涵盖了体育,音乐和政界。

    最近,美国民主党民主党全国委员会(DNC)发出预警,警告他们不要将FaceApp用于改变面部的应用程序。参议院少数党领袖Chuck Schumer也正式要求联邦调查局和联邦贸易委员会对该申请进行国家安全调查。

    那么,美国政府担心的隐私问题确实存在吗?那就是探索“云”(即服务器)不在俄罗斯。

    实际上,这些服务器主要在美国,而不是俄罗斯。根据福布斯的说法,“FaceApp.io的服务器位于美国的亚马逊数据中心。”

    当然,也有一些服务器也由谷歌在其他国家托管,包括爱尔兰和新加坡。此外,FaceApp使用第三方代码。

    当然,由于FaceApp的开发公司位于圣彼得堡,因此这些面孔将在俄罗斯进行查看和处理。与此同时,这些亚马逊数据中心的数据也将反映在俄罗斯计算机上。

    俄罗斯是否真的因“隐私”问题而泄密?无论我们是否相信,FaceApp的隐私问题引起了参议院少数党领袖和纽约民主党参议员查克舒默的注意,FaceApp再一次被推向公众舆论。

    它被美国军方解雇并被谷歌出售。波士顿成立于27年前,今年将出售SpotMini!

    芯片是否直接连接到大脑?马斯克发布了“脑后插管”黑色技术,允许人类与AI一起生活

    华为发布了世界上第一部用于唐诗的人工智能,1300年前,唐朝一键式唱歌

    中国将在2020年首次探索火星!人工智能如何成为外星生命的探路者?

    http://wap.chendingli.cn

  • 热门标签

  • 日期归档

  • 友情链接:

    海外交通史博物馆信息网 版权所有© www.leportico.com 技术支持:海外交通史博物馆信息网 | 网站地图