​深度学习先驱Yann LeCun被骂退推特:你们都很懂,从此我不说话了

使用CN2/CN2GIA顶级线路,支持Shadowsocks/V2ray科学上网,支持支付宝付款,每月仅需 5 美元
## 加入品葱精选 Telegram Channel ##

机器之心报道

作者:泽南、蛋酱

在长达两周的「骂战」之后,图灵奖得主、Facebook 首席 AI 科学家 Yann Lecun 宣布,自己将退出推特。

我请求社交网络上的所有人不要再互相攻击了,特别是对于 Timnit Gebru 的攻击,以及对于我之前一些言论的攻击。」Yann LeCun 刚刚在推特上发出了这样的呼吁。「**无论是口头还是其他方式的冲突,都只能获得伤害和相反的结果。我反对一切形式的歧视。**这里有一篇关于我核心价值观的文章。」

「这是我在推特上最后一篇有内容的帖子,大家再见。」

看起来 2018 年图灵奖得主、人工智能领军人物 Yann LeCun 已经下定决心想对长达两周的激烈讨论画上句号。而这场闹得沸沸扬扬的骂战,起因正是被指「严重种族歧视」的 PULSE 算法。

这一工作由杜克大学推出,其人工智能算法可以将模糊的照片秒变清晰,效果极佳。这项研究的论文已在 CVPR 2020 上发表(论文《PULSE:Self-Supervised Photo Upsampling via Latent Space Exploration of Generative Models》)。

PULSE 在 CVPR 大会期间引来了人们的关注,进而引发了 AI 社区的广泛争议。首先,这种方法所产出的图像清晰度更高,细节也更加丰富:PULSE 能够在几秒内将一张 16×16 像素的图片提升至 1024×1024 分辨率,提升高达 4096 倍。目前该算法仅针对人脸照片,算法生成的照片清晰到可以呈现出人脸上的毛孔、皱纹甚至一缕头发。

但本质上看,PULSE 并不是在消除马赛克,而是「生成」了看上去真实却并不存在的人脸。超分辨率算法一直是计算机科学的热门研究领域,以往科学家们提出的还原方法是在低分辨率图片中添加像素点。但 PULSE 使用 GAN 的思路,先利用深度学习算法生成一些高清图片,再降低它们的分辨率,并与模糊的原图对比,从中找出匹配程度最高、最接近原图的高清图像随后输出。

问题就出在这里,有网友试用了 PULSE 之后,发现美国前总统奥巴马的高糊照片经过去码处理以后,生成的是一张「白人面孔」:

有网友质疑该方法生成结果存在偏见,对此项目作者也给出了回应,表示这一偏见很可能来自于 StyleGAN 的训练数据集,可能还有其他未知因素。

「我们意识到偏见是机器学习和计算机视觉领域的重要问题,并就此问题联系了 StyleGAN 和 FFHQ 数据集的创建者。我们希望这能够促进不具备此类偏见行为的方法的诞生。」

但这件事还没完,鉴于美国目前 BLM 的舆论环境,人们很快就开始深入讨论机器学习研究结果缺乏多样性的问题。在这其中,种族偏见和性别偏见的问题一直存在,迄今为止却没人给出一个好的解决办法。 

也就在这个时候,Yann LeCun 发布了一条推特,来解释为什么 PULSE 会出现这样的偏见。

机器学习系统的偏差是因为数据的偏差。这一人脸上采样系统其结果倾向于白人是因为神经网络是在 FlickFaceHQ 上预训练的,其中的大部分图片基本是白人照片,」Yann LeCun 说道。「如果这一系统用塞内加尔的数据集训练,那肯定所有结果看起来都像非洲人。」

Yann LeCun 的说法本身没有错,但可能是因为过于直白了,一下子让大量 AI 从业者和研究人员炸了锅。LeCun 希望将人们的注意力引向数据集的偏差,但推特网友不买帐,并指责他**「用这种陈旧的理由来掩盖问题本质」**。

之后,Yann LeCun 又在多条推文来解释自己关于偏见的立场,但仿佛已经没有用了。

「与学术论文相比,这种偏见在已经部署的产品中产生的后果会更加可怕。」这句话的含义被解读为「不必为此特例而过分担心」,引发了诸多同行的质疑。

斯坦福 AI Lab 成员、Google AI 科学家 Timnit Gebru(她是一名非洲裔美国人),对 LeCun 的言论表示「失望」。

Yann LeCun 甚至在 Timnit Gebru 的推特评论区连写 17 条回复:

当然,需要讨论的也不只是机器学习中的偏见问题:

「同样需要避免的是在对话中产生恶意,它只会激起情绪,伤害到所有人,掩盖实际问题,推迟解决方案的出现。」

从事数据科学领域超过十年的 Luca Massaron 认为,尽管从技术角度来看 Yann LeCun 是完全正确的,但看看这种观点被抛出之后公众的反应,你就会知道谈论它是多么的敏感。

「人们总是害怕自己会被不公平的规则控制,进而无条件地,有时甚至毫无理由地惧怕 AI 剥夺人们的自由,而不仅仅是工作,」Luca Massaron 说道。「我个人并不担心 Face Depixelizer 这类研究,我所害怕的是在应用之后,我们无法识别和挑战偏见。」

如今,越来越多的机器学习自动化技术正在进入我们的生活,立法者在这里扮演的角色非常重要。在欧盟国家,为了确保数据使用的透明度和责任,GDPR 条例要求互联网公司保证算法的可解释性,以及用户对于自身数据的控制力。

如果我们希望 AI 能够朝着正确的方向发展,我们需要追求的或许不是无偏见,而是透明度。Luca 认为,如果算法是有偏见的,我们可以挑战它的推断结果并解决问题。但如果算法的推理机制不可知,或许其中还隐藏着更大的问题。

不可否认的是,人类社会存在着各种偏见,但因此而认为机器倾向于更「流行」的答案是理所应当的,或许不是一个正确的观点。

_人们对于 PULSE 的讨论,以及 LeCun 的攻击,有很多已脱离了 LeCun 的本意。
_

作为这场争议的起因,杜克大学的研究者们已在 PULSE 网站中表示将会修正有关偏见的问题。目前论文中已经增加了一个新的部分,并附加了可以解决偏差的模型卡。

为了达成没有偏见的目标,我们必须让整个人工智能社区行动起来。但在有关技术的讨论之中让技术大牛心灰意冷,是大多数人都不想看到的结果。Yann LeCun 此前一直以直言不讳著称,他在社交网络上经常会对热门的深度学习研究发表评论,也可以直面其他人工智能著名研究者的批评。

机器学习模型中的偏见可能会使得推理的专业性受到侵害,导致大量业务遭受影响却不为人所知。我们还没有解决这个问题一劳永逸的方法。

参考内容:

https://analyticsindiamag.com/yann-lecun-machine-learning-bias-debate/

机器之心 CVPR 2020 线上论文系列分享已经进行了九期。在最新一期的分享中,我们邀请到了 CVPR 2020 最佳论文的一作吴尚哲来为我们分享这篇论文的解决方案及亮点。

文章已于修改

最简单好用的 VPS,没有之一,注册立得 100 美金
comments powered by Disqus

See Also

趁热打铁

金属价格暴涨背后的实质因素 太早了。这是最近资产价格全面飙升时许多投资者的看法。不仅股市回升,工业原材料的价格也在过去一个月左右急剧上涨。铁矿石的价格从每吨 80 美元突破 100 美元。铜价也涨了 25%。升势惊人。全球经济才刚刚重启,大 …

双社交网络记

不同的商业模式造就了不同的政治行为 自负的人互不对付是科技行业中一个不变的主题。在个人电脑问世之初,超级实用主义者、微软的比尔·盖茨与极端唯美主义者、苹果的史蒂夫·乔布斯就势同水火。在商业软件领域,甲骨文的拉里·埃里森 (Larry …

如何看待推特删除17多万个与中国影响力相关账号?

品葱用户 若即若离 提问于 6/13/2020 美国社交媒体推特前天删除17多万个与北京支持的影响力运作(influence campaigns)相关账号,并指这些账号以欺骗方式传播对中国政府有利的信息。 综合路透社与《卫报》的报道,推特前 …