如何看待上海某小学通过 AI 图像识别学生上课开小差并对学生进行评分?
知乎用户 发表 这样真的可行吗,孩子们会不会活的越来越不真实,不敢表述自我? 知乎用户 鲁森林林 发表 建议先赶紧在各个政府服务部门和咨询机构安装,通过 AI 图像识别工作人员是否保持微笑、是否态度良好、服务是否专业、上班有没有淘宝等等, …
已经在中国药科大学试点:
中国药科大学在校园“试点”人脸识别,可监测学生上课“是否在发呆”
9 月 2 日,新华网微博以“逃课机会为零!#高校试水人脸识别#”为题转载了来自 “一手Video ”的一则短视频。视频中,中国药科大学图书与信息中心主任许建真在一间装有摄像头的教室中介绍说,“传统点名第一浪费时间,第二准确率不高,但是有了人脸识别就没这个问题了。教室只要(学生)进入到那一刻起,你往那一坐,他对你已经全程进行识别了。通过人脸识别也能知道,比如你抬头了几次,低头了几次,还有你是否在玩手机,是否在发呆,是否在看别的书,都能感知到。”
视频同时显示,8 月 26 日,中国药科大学位于南京的校园已经在校门、图书馆、宿舍安装人脸识别门禁,在两间教室试点安装摄像头刷脸考勤,“如果好的话将全校推广”。视频中有药科大学学生表示人脸识别门禁系统“特别方便”。
视频地址:
———2019/09/08 更新———
教育部发话表示要求高校谨慎使用生物特征识别技术,中国还是会越来越好的。
https://tech.sina.cn/i/gn/2019-09-06/detail-iicezzrq3837273.d.html
———以下为原文———
利益相关:前旷视员工,类似的工作的道德问题也是我离开旷视,离开这个行业的主要原因。
反对最高票回答所谓文科生水平跟不上理科生的谬论。这个本质上是中国社会对技术的纵容和对自身权益的不重视的结果。
这个产品其实很早就有了,同行友商也有很多家在做,我倾向于认为旷视做这个只是对标了某个竞品,用自身在其他领域(安防、智慧城市,至于这些领域干了什么任你想象)积累的能力 / 技术优势在这个领域想捞一笔,顺便收集点数据而已。
我不想洗白,我只是想说你看到这些的时候,可能在你看不见的地方,你已经受到更多的隐私和权利的侵害,只是你不知道。你看见了课堂 AI,看见了 ZAO,却不知道还有很多你看不见的地方,你已经成为了一个 datapoint,在各家 AI 公司的数据库发光发热。李开复曾经在多个场合表示中国发展 AI 有数据优势和落地优势,这确实是大实话:中国数据真的太容易获得,落地监管也不是很严格,民众也不知道有多大风险也不会去考虑。
**技术不是道德中立的。**许多做技术的人喜欢用技术是道德中立这个观点来为自己洗清罪名,但是其实很多时候他们自己是很清楚现在做的技术是什么东西,会用来做什么。旷视的一些大佬(众所周知他们都是清华毕业的)曾经挂在嘴边说清华曾经想要他们做这个系统在课堂上用,他们认为这是作恶,所以拒绝了。现在他们就做了出来,卖给中小学,你相信做这个项目的人自己不知道自己在作恶吗?只是利益够大所以做而已,百分之百的利润他们可以伤天害理。
只要中国依旧认为隐私等基本人权是个可以让位与公共安全、社会整体利益的东西,那么这些应用就会继续发展,就算一家公司金盆洗手,还会有几十家新公司继续做,把这些东西发展到我们不敢想象的地方去,那个时候个人可能就更是没有反击的能力了。
这不是产品经理或者程序员的问题,不是一家公司的问题,甚至不是一个技术问题,是我们社会的价值观的问题,我们怎么看待自身权益的问题。
—————补充的分割线—————
有些人喜欢拿原子弹说事,那我就得说两点:
有次和旷视一位非常早期的实习生聊到公司现在的各种智慧城市之类的业务,对方说难道 xxx(某创始人)不会因为不安而停下来吗?但是做这个已经是公司战略了,最近 IPO 的文件也可以看出这是公司的主要收入来源。
关于美国公司,如果大家有了解,其实最近微软、Google、facebook、Apple 都被爆出有使用用户的聊天音频 / siri 对话做模型训练,fb 甚至丧病地用 whatsapp 的聊天音频,用过 messenger 都知道他们搞笑又让人气愤的广告。只能说是一丘之貉吧。我记得好多年前春晚有个小品,是自动插播广告的免费电话,现在看可能美国要抢先了实现了嘻嘻,希望中国可别追上。现在世界上任何公司都知道数据是最重要的资产,不论来源是啥都想拿到手,必须监管的强力干预才能保护用户利益。不过这是另一个问题了。
1. 首先,AI 监控和老师监控完全没法相提并论。老师再牛逼,注意力也是分散到几十个学生身上的,何况还要讲课。老师不可能给出你走神几次,小动作几次。一个学生意识到自己一举一动都被捕捉,心理上会感到自己像在监控者眼里是赤裸的一样。隐私是个人空间的重要部分,对个人空间的看重是孩子形成独立人格,能把自己和父母老师同学区分开的重要一步。
2. 走神、小动作这些事情是不是纯粹有害?它们是有重要的心理学意义的。成年人在开枯燥的会的时候也会忍不住走神。如果一个老师讲的让人昏昏欲睡,那么走神小动作是保护自己心理健康的重要步骤。如果因为长期上课感到疲倦,走神小动作也是很好的放松。相反一直让人保持紧张,长期下来对人的认知发展和学习是有害的。一个健康的神经系统没有抑制就没有兴奋。外力强迫长期兴奋之后,只能跟随长期抑郁。
3. 更隐蔽的危害是,这是教育者用行为告诉小孩,隐私不重要,成绩、甚至表面上的 “专注” 才重要。 “监控 “会进入下意识,这些小孩长大之后,很难尊重别人的空间和隐私,也会形成“伪装” 人格,很难沟通合作。
4. 从老师和家长最关心的学习效果看,我个人预计这种监控也会主要起负面作用。跟工作场景做个类比,这种监控类似于工作中的 “微管理”(micromanagement),比如每天写日报(刚意识到钉钉就是个微管理的集大成者)。我想有体会的人,没几个人会喜欢微管理,管理学上的定论也是微管理主要起负面作用。原因之一是工作在主体上应该是自我驱动的,而微管理极大的破坏了人的主动性,只会让人厌恶和回避挑战,解决难题的动力下降。每时每刻的监控,就像写 “小时报”、“分钟报”,对学生学习积极性的破坏可以预见。而学生的学习是伴随着许多挑战的,破坏了主动性,就更少有能量去学习掌握难点,大概率会形成恶性循环。
5. 这个技术是不是一无是处呢?我能想到的好处是,它可以用于及时对长期状态不佳(重点是长期)的学生进行干预,比如总是走神低落,是不是家里出了什么事情?或者基础没打好,跟不上了?但考虑到现在中小学管理者的素质,我怀疑他们仍然是会简单粗暴的使用这个技术,即用它来强迫学生每时每刻专心听讲,甚至看表现来奖惩学生。那样的话,就像我前面说的,是非常有害的。
我以前 曾经说过,**底层人士有 3 样东西最不值钱:时间、人脉和隐私。**为了一点点蝇头小利,他们可以轻易出卖这些东西。
中国新时代的某些迅速发展的互联网企业,充分利用了底层人士的这三个不值钱的东西,然后用来换取「用户量」和「金钱」,从道德上来说,当然是有瑕疵的。但好在,这依然是属于「一个愿打,一个愿挨」,虽然没有做出好的引导,但还算是让人们「自己」去做出选择,是有**「底线」**的。
而旷视科技的这款监视学生上课的产品,似乎是对某些迅速发展的互联网企业的一种模仿,但它忘了,这其实并不一样,它是突破底线的。其突破底线的点在于:它没有给实际使用方做出选择的机会,而是给第三方去选择,逼迫被监控方出卖隐私,这是不能忍受的。
如果该产品换一种变现思路:让学生或其家长(在学生本人同意的情况下)自行购买,然后监控自身是否在上课时开小差或作低效率的事情,从而找到正确的学习方法,提升学习效率,这就算「自愿被监控」,就符合道德了。
只是,在当今的中国,学生又有什么人权呢?
这个问题,没有任何洗地的空间,我们必须警惕这种技术滥用的趋势,否则受害的永远是我们普罗大众和弱势群体。
我不想直接回答这个问题,只提出几个反问:
1,如果可以打着 “提升教学质量” 的旗号,去监视学生甚至量化学生的行为数据。那我们是否可以打着 “提升管理方式” 的旗号,去监控每个教师、辅导员、教导主任、校长的日常工作,让他们时刻保持专注的工作。
2,如果我们可以监视学生的上课行为,是否可以把这项应用推广到工厂、写字楼、办公室?
一旦发现劳动者走神了、不在工位了、或者玩儿手机了,就立马记录在案并提醒管理者,这是多么优秀的管理手段啊。
3,今天的技术,还只能实现监控学生的动作行为,最多采集到学生的微表情,然后通过算法去计算出学生的 “听讲、阅读、举手” 等数据。
那么未来,当技术发展到可以采集我们的脑电波、人体磁场、热力图、情绪等更加私密的生理特征时,那这种应用势必可以计算出每个人的 “态度”“社会倾向”“喜怒哀乐”“是否表面赞成心里反对”“是否心甘情愿的 996” 等信息。等到这个时候,我们是否愿意接受这样的监控?
4,谁有权利去确认哪些群体可以被监控?那些群体是否有权利不被监控?
只要我们去思考这几个问题,就知道这项技术应用会有多么的可怕了。
我这两个月在知乎和公众号至少 10 余次呼吁,我们要警惕人工智能的应用,原因无他,因为技术的发展一定会带来负面效应,而承担负面效应的群体,一定是普罗大众和弱势群体。
只是我们大部分人太过乐观,习惯了被人卖了还替人数钱,真的愚蠢之极。
___________________
欢迎关注。
钉钉的成功给了很多聪明的创业者一个启发,中国本质是个阶级社会,这个阶级不只是社会地位,还有甚至道德、价值判断都存在阶级依附的现象,既然如此搞定上一层的人下一层的人不就自然搞定了吗?
真是太聪明了
监视者也应当被监视。
为什么只监视学生?主任不用监视吗?校长不用监视吗?不只有学生会发呆,是人都会,为什么不分析分析校领导的工作表情,提高一下全校师生的效率?装摄像头是为被监视者好,那就都装,教室装,办公室也装,从学生到校长,眯了几次眼,发了几次呆,上了什么网,数据都公开,共同进步,多好。
好东西,就要大家分享。
用在别人身上是为他好,用在自己身上就 no,no,no,这是伪善。
技术中立,产品不中立。
开发出这种产品的人,愿不愿意把产品应用在自己身上?愿不愿意在摄像头下工作,愿不愿意机器根据你的表情打分,分析你发了几次呆?做这个产品的 PM,敢不敢在 CEO 的办公室装摄像头,帮老板提高效率?
如果真的是好东西,为什么不敢?
因为不是好东西。
**“AI 监控课堂” 不是一个新东西,它的落地比我们每个人想的都更广泛、更迅速。**旷视这张示意图展现出的内容只是冰山一角。
以 “课堂专注检测” 为关键词在网络上搜索,你可以找到很多家提供类似产品的公司。例如百度的 “课堂专注度分析解决方案” 。百度大脑的官网上显示它已在 “杭州金沙湖实验学校”、“海风教育”、“小童科技” 等机构落地,它的原理请看下图(摘自百度大脑官方网站):
除了百度之外,教育巨头好未来(即学而思)在 2018 年 7 月就推出过一套 “WISROOM” 智慧课堂解决方案,可以给出 “哪些学生的参与度较低”、“哪些学生需要被关注”、“一道题有哪些学生举手抢答” 等信息。
此外还有 “清帆科技” 给出的 EduBrain 教学分析系统 :
**作为一个了解、也研究过深度学习的毕业研究生,可以很明确地肯定这套系统基本上没什么技术壁垒。**只要有合适的数据,任何一个有做过人脸识别 / 图像分类的人都可以轻松地搭建出来,更不用说对于旷视、百度、好未来(学而思)这种大型企业了。由于国家没有相关的规定,社会上呼吁保护隐私的声音也很弱,企业入局做出这样的 “AI 监控” 是必然的结局。
从整个社会的角度来说,至少从 2018 年上半年开始,“AI 监控分析课堂” 就已经开始落地生根、加速发展了。 在这个时间段内,你可以找到各种学校、教育机构在炫耀自己的校园变得更加 “智能”:
企业开始发通稿宣传他们的 “人工智能技术” 又用到了更多的地方:
而政府也在鼓劲发表关于 “人工智能助力教育发展 “的讲话。令人遗憾的是,在整个产品落地的过程中,直面这项技术、位于漩涡中心的学生们的声音被彻底淹没了。
面对这套监视系统,有的学生会去”迎合 “它,知道了原理后,学生可能会变成一个面朝讲台,假装微笑、点头来表现自己专注的可笑的” 演员“;还有的学生会产生极大的不安全感和恐慌感,导致学生和学校、家长之间的情绪对立,乃至于学生和学生之间的对立。**归根结底,教育者应该把学生看做真正的” 人 “来对待,而不是一个用面部朝向、表情、微笑、点头等指标衡量的 data point。这已经不是教育,而像是在对待令人无法信任、需要时刻监视的犯人。**尽管这项技术落地迅速,但在网络上无法找到任何关于在”AI 监控 “情形下学生心理变化的研究,也找不到任何关于其有效性的研究。
此外,我也丝毫不怀疑这些公司会把这项技术推广的工厂等其他场所。只要舆论成本够低,又有利可图,在没有明确监管的前提下,一定会有人入场做这件事。不论这家公司是百度、旷视还是学而思,结果都是一样的。人工智能监控 v.s. 隐私权的争夺已经走到了这样一个岔路口,接下来只能看监管者怎么抉择了。
我想到了另一个角度。
是不是说明 CV 变现市场高度饱和,即使这个应用非常奇怪,看起来也没什么价值,仍是企业能想到的最 “靠谱” 的新应用了?
这事儿本身真的没有让我觉得多么反感,因为比这更令我反感的事情实在太多了。
中国社会自古以来就是一个很喜欢玩间接模式的社会,最典型的莫过于间接税。直接税一收,大家觉得疼,不愿意交。可是间接税一收,大家不仅愿意交,而且还抢着给你交,哭爹喊娘地抢着交,生怕交晚了,自己就失去了做人的资格。大家都知道我说的是什么。
这种直接监管,我们历来是不怕的。我一直反对过分强调技术进步的重要性,无论这种重要性是正面的还是负面的。尤其是冷战结束之后,新技术对人的生活方式改变非常有限,无论是正面还是负面,这事儿以后再说,在此按下不表。我主要想讲的是,直接监管看似来势汹汹,但其实往往是纸老虎。垃圾分类凶不凶?时间一长,你也不爱弄,我也不爱弄,大家都不配合,阳奉阴违,你又不可能一天到晚死盯着非要玩死我们不可,自然就名存实亡了,这是亚细亚特色的负反馈调节。这事儿也一样,技术最终落脚到人,老师难道就喜欢这种监控?老师也烦。大家都是成年人了,谁不想工作水水过去赶紧回家歇着呢?如果老师自己都不关心学生出不出勤,上课玩不玩手机,那他统计也是白统计。
最可怕的,就是间接监管。比如高考指挥棒放在那里,你就说你学不学?你不学?好,清华一年就招那么几个人,你的同学们巴不得你不学,好把上清华的机会留给他们。根本不需要监控,大家自然会往死里学,不洗澡不睡觉也要学。再比如企业的末位淘汰,你还怕员工玩手机?他们会求着你,老板,给我点活干吧,我还能加班,我还能提高效率,老板我是条好狗啊老板!我还能再少吃一点的老板!
这设备就算卖一块钱,老板都懒得装。
在这种间接压迫的环境中生活久了,我再看到这种直接压迫的技术出现的时候,心里甚至感到了一阵放松。因为我至少可以安安心心地看向我身边的同学们同事们,看他们愤怒而无奈的表情,我知道他们和我站在一起,知道至少我们是朋友。
而不是他们巴不得我偷懒,心里偷笑,好把上清华、保住工作的机会留给他们。
旷视不是首家,某未来应该更早两年就推出过类似产品(maggic mirror 中文翻译就是该产品)坦白说,旷视能这么顺利落地公办学校进入课堂… 还真是…
行吧,教育信息化 2.0.
先分享一个我参与的真实 case,由于各种原因我不能具体展开相关信息,一言以蔽之吧,主要分享几个场景大家开心一下,信息内容我争取表达清楚:
去年有个客户是全球排名 TOP5 的国际学校,当时我们是跟兄弟部门一起去拜访的,他们是业务合作、我们主要去做需求调研,考虑到有政策引导看可否探索下新业务… 当时还特别针对我司黑科技的 AI 技术(语音识别、微表情识别、人脸识别等)给校方领导们提供了几个解决方案,也介绍了目前国内应用广泛的产品,其中还特别介绍了类似旷视 / 某未来同款技术产品——课堂微表情识别管理,然而!让我们猝不及防的是… 校方教学校长当场直接 SAY NO!!!态度表达简单粗暴,直接表示这种产品一旦用起来,学生家长们一定会来投诉说校方侵犯学生隐私(其实是想说我们侵犯他们隐私… ),国际学校的校园文化不允许也不可能会使用这种产品…
与此同时,校方教学校长直接就表达了对产品设计的不理解… 因为在他们看来,一旦学生们知道学校采用这种微表情识别技术来监控他们课堂表现情况,学生们出于自我保护不想被老师点名 “告状”,就必然会刻意地,甚至“伪装” 出一副专心思考 or 积极互动的听课假象,以至于产品实际应用的效果很可能影响了学生正常的课堂学习… 而且,对于微表情识别后还能分析判断学生上课是否跑神这种说法,咳咳咳咳,反正,校方连着追问了好几个 How… 总之,场面一度尴尬…(此处略去一万字)
随后在参观学校的过程中我发现,国际学校课堂教学和我们的课堂教学真的没啥区别… 要说最大的区别就是他们小班教学,老师更擅长组织学生进行 PBL 式学习,至于什么校园信息化建设程度,扪心自问的说,真的还是我们洋气!
就分享这么多吧,我相信看完上面文字的人都能明白我想说什么…
千万不能 “屁股坐在科技上,脑袋却想着做教育”,这是那天我老大走出校门后说的第一句话,在任何一个严肃且容错率极低的行业里,科技产品的出现必然同时伴随着机遇和挑战,但我还是选择相信这个简单而朴素的道理:任何一款产品之所以能被市场认可被用户接受,最关键还得看它能不能解决用户的真实需求,而对于没有刚需制造刚需也要设计出来的产品,最终都会被替代消失掉。
共勉。
谨对
答案中的一些观点说说自己的看法,也澄清一下科技人士容易对教育领域存在的一些误区(希望还没有把母校里学的那点东西丢光):
1,如果用机器观察学生上课表现并汇报给家长是不道德的,那么老师观察学生上课表现并汇报给家长是不是不道德的?
正常情况下,老师和家长的沟通是一对一,孩子的隐私保留在监护者范围内,超出这个范围也是不道德的(比如老师把孩子的情书公开朗读)。机器记录的数据如何保证不被监护者之外的人获悉使用?
2,这里涉及到很多问题,比如未成年人的人权问题。一般认为未成年人和成年人的权利是不同的,未成年人有没有独立于监护人的隐私权?老师踮脚尖往教室里看算不算侵犯隐私?
教育一直都要在教育心理学的基础上发展,未成年人正是因为心理和身体上的可塑性都较大,所以作为新技术普及时更要谨慎小心。监护者对孩子无孔不入的监视和强迫会造成极大的心理伤害,别忘了中日韩东亚三强的学生自杀率都是全球排的上号的,更有数据表明中国青少年自杀率为世界平均的 2.3 倍(引自《中学生自杀现象调查分析报告》),这种背景下一味强调 “有没有监护权”“监护权是不是还可以更充分” 是罔顾重点的,这个假设过程中丝毫没有考虑学生的感受。
3,还有机器和人的区别的问题,机器和人在这里的区别,主要是人的观察是片面的主观的,机器的观察是全面的客观的(在标准公开的前提下),哪个更不道德?
机器并没有道德,道德也不作用于机器。但在我国现有社会事实下 ,有权使用机器的人往往更容易不道德。
PS:在未经主要监护者家长群体充分讨论并同意便将这种新技术用于被监护者青少年群体的行为,在法治国家应属于妥妥的犯罪。
看得出来产品经理和变现团队的巨大压力,同样的事情在我们行业也发生过。。
了解这几家人工智能公司的人比较熟悉,估值大几百亿,收入小几十亿,还亏损。这种业绩和估值的矛盾只会随着时间愈演愈烈。
人工智能过去几年发展速度很快,在绝对刚需:安防领域已经开始出现拥挤现象。正常对这类公司的期待是先把技术做出来,形成基础设施及壁垒,然后一个个细分行业渗透。安防领域是按照剧本走的,然后就是几个没想到:
1 大家发现做做美颜,识别个人脸人体,应用级别的话门槛不是想象那么高,好几家都满足。这些领域活生生变成了销售导向型行业,大企业 pr,代理,销售网络变成了收入决定性因素。
2 找新方向速度一直缓慢,在我们这个零售领域无非就是识别会员人脸,统计客流客群,做做互动屏。对我们这个行业来说,都不是刚需或者比现有解决方案功能多一点但是成本高很多,比如人脸识别客流是现有方案 3 倍。其他行业也有这个反应,就是人工智能无法给到客户愿意付费的产品。
于是这个行业变成了啥呢,后面小团队追赶速度越来越快,能够变现的领域逐渐拥挤。在市场空白的领域,产品和解决方案团队每天绞尽脑汁思考如何技术变现。
做出这个东西我一点都不意外,典型的为了展示技术,硬生生创造的需求。之前有人和我们说用人脸识别 vip 会员,自动开门,开屏。基本卖不出去,因为购物中心 VIP 对身份隐私和购买行为极度关心,有些人甚至不希望别人知道自己高额消费。所谓搭在人脸技术提升体验,一看就是不动我们行业的人,为了 bd 创造出来的,购物中心不可能为了这个技术把自己牌子砸了。
未来这个行业还得洗牌,毕竟现在的估值已经没什么人能看懂了,之所以大家不说话,无非是这个行业涌进了太多资本,已经坐上了同一条船。
未来,这种为了满足资本市场,突围式创新,只会更多。
更多商业分析,欢迎关注我的公众号 “家哥的小黑屋”
典型的能力有限、商务先行的 ai 公司在自己的舒适区找算法应用场景的一个实例。
常规行为分类、数据量大易得易标注,基本上只有商务谈判上存在较大门槛。
这跟社会真正需要的 “异常行为预测”(提前预测、防止伤害),从数据收集、人工标注、算法设计等多方面看都有着极大差距。
很多人看了这个东西,得出结论 “旷世技术很牛 x,就是产品经理友善度,场景选错了”,大概这就是旷世想要的结果。
一群没吃过猪肉也没见过猪跑的想象怎么养猪。
这东西厂家想卖,卖不动。
学生的反对有屁用,关键是试用过的学校都遭到了老师们的坚决反对。因为学校用它不是监视学生的,而是用来评估老师的讲课水平的。你课堂上百分之多少的学生在百分之多少的时间走神,你讲的什么课,是不是该扣钱?
技术 + 场景从来都不是中立的。
举个例子,如果有一项技术,每天随机选择一个人,曝光这个人的所有信息,家庭住址、银行密码、医疗信息等等,用最邪恶的方式「人肉」一个人,你会认为这个技术是中立的么?
这里说的技术,其实隐含了技术 + 场景,可以将技术应用在某个场景下,形成能对用户产生影响的功能。人工智能本身可以被用在各种地方,如果用来限制每个人的隐私和自由,那么它是中立的么?
菜刀本身不是问题,但如果这个场景是在小学门口摆一排菜刀,会认为这是中立的么?做菜刀 + 学校这个技术 + 场景的人,大家都会觉得有问题。
人脸识别的各种算法,机器学习、深度学习,本身的确无所谓对错,但是一旦和具体场景结合起来,就有了对错。人也是如此,刚出生的时候,人之初,性本善,但是决定你是什么样的人,在于以后选择的人生道路。
用人工智能来监控学生上课,用人工智能来监控工人工作,都是技术的伦理滑坡的一小步。如果这样发展下去,迟早有一天,你我都会在各种越来越差的环境当中。今天你觉得学生被这么监控与你无关,有朝一日,在办公室里被监控的那个人可能就是你。虽然我也是一个「老板」,但我坚决认为应该抵制这样的事,因为我们首先是人。
作为互联网和科技行业的多年从业者,我非常反对这个技术 + 场景,也建议我的朋友们反对这个场景。
我不知道还有多少人记得这个收费站的 “微笑哥”,我还记得我当时看到时从脊柱直冲脑袋的凉意。
这种监控,管你说是为了课堂纪律也好,提高老师教育水平也好还是帮学生认真学习也好,最终只会也变成这样。
这就是我们中国 21 世纪需要的学生?
我觉得这东西其实很难卖出去,本来就是做概念演示用的,用来补全公司的产品矩阵,增加丰满度,现在视觉生意不好做,卖一个盒子啥的,成本要低,人家有的你要有,人家没有你也要有,一个盒子啥都要能做才行。旷世算法技术好,估计硬件自己也要做了。硬干华为海思?升腾?就算软件硬件全开花,还有运营呢?互联网这运营阴招绝对比开个摄像头可怕,所以就算卖出去,这种技术大概率就是没有下文的,还不如百度虚假广告可怕,
再说,一个摄像头全套方案给人家学校,就成了完全封闭系统,学校不用专人维护啦?数据后台不用人管理啦?摄像头自己决策,学生不听话发射粉笔头,自动给家长发短信报警,向老师举报学生看小人书,自主决策能力百分百,呵呵,这技术在 ppt 里头也不敢这么说。
还有,我也问过一些中学的老师,让他们评价这东西,他们哭笑不得,现在能够上好中学的学生,老师是要跪舔的,家长惹不起你们不知道吗。学生注意力不集中,老师都要跪上去嘘寒问暖。学校就算丧心病狂,也没办法把这东西用于邪魔歪道。
大家觉得衡水中学管理变态,都不用摄像头,一堆胡萝卜+大棒教师才是首选,而且,衡水这种模式,完全是苦命家长为了孩子将来,隐形支持出来的,如果当地家长反对,衡水早就收不到学生了。谈何 AI 监管,这生态就算要真的监控学生,那也必然是家长带头支持出来的。
坚决反对,这是典型的利用科技作恶的行为,是对学生自由和尊严的践踏,会造成可怕的后果。
用了这种技术,所有人都知道自己暴露在好多双眼睛之下,必须正襟危坐 45 分钟,任何的走神、歪头、侧身、弯腰、眯眼都不敢,像个衣服架子似得坐很长时间,这是一种莫大的折磨,某种程度剥夺了学生作为人的尊严,严重一点说,就像你便便时、洗澡时有人看着你,你做任何事情时都有几双眼睛盯着你,这还让不让人活了?这种变相的惩罚能造成人的精神高度紧张,然后就是神经衰弱。
不要用为你好这种睿智的理由来给剥夺和监视正名,大学生、成年人又不是小孩子,就是小孩子也不允许的,某个角度说这是用看守犯人的态度看守学生,对学生没有一点点的信任了,相当不人性,还涉嫌是一种变相的惩罚措施。
如果非要做也行,把这种技术也用在老师办公室、校长办公室、食堂后厨,每个学生都可以通过手机随时观看,看谁能受得了?
我觉得这个技术应用还不够。
下一步至少应该同天网系统联网,全面把控所有的城乡居民的情绪信号,对所有持有负面情绪的人都纳入失信人名单。
如果财政和技术条件允许,还应该建立完善的政审系统,对三代以内血亲有犯罪记录、累计有三次面部表情明显表露负面情绪的人,应该限制其就业、限制其日常与其他市民接触、限制其活动范围并禁止婚育。
或者只要国家有决心,就应该专门开辟一个地区作为收容区域,将这些人统一的管理起来,不使其干扰我们 “中华民族的伟大复兴” 事业。
没用的玩意。做产品的是不是上学时没见过那种老师说话跟着点头好像在学习,但是考试又考不好的学生?
这玩意进课堂,可不光是监视学生的,同时还监视老师。哪怕摄像头没对着老师。
为啥?
教务处:大匠老师,你上课学生都没举手啊,是不是你没有师生互动?
我:老子在讲习题课不可以吗?
教务处:大匠老师,你上课学生笑了好多次,是不是你没讲课在那里讲笑话了?
我:你说要师生互动的,师生互动了课堂气氛活跃你又找我茬??
教务处:大匠老师,你讲课学生都是面无表情的,是不是课堂不够生动活泼啊?
我:刀,我的刀呢 !!!
以上场景不是我胡扯,是我作为一个当了十几年老师的人的经验:无论是什么新的花招被提出来,最终会 “落实” 到老师头上。
当然了,没用是指对学生成绩提高没用,对于画饼圈钱,恶心学生和老师,可是有大大的用处。
我觉得挺好,这种产品使用一段时间以后,老师和家长就会明白:
课堂表现和成绩并没有什么卵关系
在 EU 对人脸识别都开始监管的今天 这个产品也就是真的中国特色了 再次告诉世人 我们的科技企业 要想出海多难 产品设计思路狭隘 反正都是盯着天朝市场 割一波韭菜就拉倒了吹牛逼这么屌的科技工公司竟然做出如此无脑的产品 简直颠覆了人们的三观 学生再调皮 也是老师来管 也不能让你随便把人家行为拍下来
相信大家都知道,有一个和旷视这款一样反人类的产品叫 “钉钉”。
用过的【员工】几乎都在骂这个产品。
没用过的也无不为之胆寒。
但是现在由于产品越推越好,用户破两亿,大家都开始理解所谓的 “产品逻辑” 了。
即,根本上而言,恶心的是员工,开心的是买单的老板。
旷世这款产品的逻辑也类似,恶心学生,让买单的人觉得好就行。
——————————————
但是显然,这款产品的刚性没有钉钉的那么好。
钉钉监视员工,可以实现直接的压榨和剥削,从而直接提高资本家的效率,为资本家带来利润。可以说,直接解决了客户的痛点。
但是教育和生产线有几个决定性的不同:
**第一个根本的不同,即教育是一个黑箱产品。**怎么教、怎么讲课,和学生学得好不好之间的关系,目前根本没人说得清楚。到底是不是把学生监视死了,就能学得好,还需要进一步考察;
**第二个不同,即使用者和买单者更为割裂。**钉钉虽然是用来压榨员工的,但是老板也在使用,他能直接感觉到产品剥削能力的好坏。你压榨得厉害,他能感觉到,就开心,就更可能复购。但在教育上,无论学生还是老师,都不是买单的人,或者说,都是被监控的一方(老师也会被纳入业绩评价)。买单的学校,感受不会太深,下面使用者反馈上来估计也都是负面意见,最终是否会继续买单就不好说了;
**第三个不同,公办高校的剥削需求没这么高。**现在我国高校尚多为公办,只有少部分为民办。公办的特点就是,没有这么强烈的剥削需求,校领导的收入、权力和这个不是一一对应的关系。相信即便是钉钉在国企和私企(同等财力条件下)的推广,感受也是不一样的;
**第四个不同,时滞性。**钉钉剥削员工,也许当期,至多几个月后你就能感觉到变化,比如产能增加,收入增加甚至利润增加。但是放到教育上,且不说我们前面说的黑箱特性,就假设压迫和监控学生真的能带来好成绩,那也要经过这届学生逐步学习,逐步考试,然后成绩提升,考上好学校,升学率提升,学校名气增加,学校有光彩等这样一个长的时间过程。用户的感受就没那么好了。
——————————————
但是,教育还有一个特点,即家长的存在。
如果通过公关和宣传,让家长相信通过这些监视能够提高孩子的成绩,那刚需性一下就上来了。
所以长期上来说,还是要看这个产品能否解决家长对孩子的成绩要求问题。
你现在感冒了,想买一盒阿莫西林,你去路边的医院,或是淘宝京东搜一下,你会发现以前随便买的东西现在没有处方你都买不到。为什么?就是因为跟滥用抗生素的风险比起来,感冒这种自限性疾病能忍就忍了,两害相权取其轻。
那么现在说回这种课堂监视的产品,跟它的那么一丁点并不突出的好处比起来,它的潜在危害是不是要远远大于收益?除了供应商跟吃回扣的采购人员,我实在想不到学校花这么大笔钱采购这种设备的动力。
当然,这种设备更有可能的应用场景还是用来量化评估老师的课堂管理能力,通过数据得出一个班级学生上课走神的比例,然后直接跟老师的工资挂钩。最后的结果就是老师上课都在盯着屏幕看到底哪个学生数值不对,数值不对的学生在老师看来那就相当于是在偷自己的工资。
你觉得这样的环境下,师生关系会变成怎样?这样做真的有利于教育吗?
刘慈欣写过一篇科幻小说《镜子》,讲的是软件工程师白冰通过量子计算机具备了无限清查任何人、任何行为的能力,结果对未来的人类社会产生了意想不到的影响。
未来的智慧城市系统也就是《镜子》的低配版吧。
当然了,以现在科学技术的发展速度,人类更应该担心的是 “超人巨变”。
讨论 “智慧城市” 相当于在跳崖过程中思考 “失业保险” 的问题。
“失业保险” 很重要,但在最终的结局面前已经没什么意义了,权当最后的狂欢吧。
以下涉及《镜子》的剧透:
“你以为自己已经站在历史的山巅上了,是吗?” 首长无力地对宋诚说。
“是正义站在历史的山巅了。” 宋诚庄严地说。
“不错,镜像把我们都毁了,但它的毁灭性远不止于此。”
“是的,它将毁灭所有罪恶。”
首长缓缓地点点头。
“然后毁灭所有虽不是罪恶但肮脏和不道德的东西。”
首长又点点头,说:“它最后毁灭的,是整个人类文明。”
他这话使其它的人都微微一楞,宋诚说:“人类文明从来就没有面对过如此光明的前景,这场善恶大博斗将洗去她身上的一切灰尘。”
“然后呢?” 首长轻声问。
“然后,伟大的镜像时代将到来,全人类将面对着一面镜子,每个人的一举一动都能在镜像中精确地查到,没有任何罪行可以隐藏,每一个有罪之人,都不可避免地面临最后审判,那是没有黑暗的时代,阳光将普照到每个角落,人类社会将变得水晶般纯洁。”
“换句话说,那是一个死了的社会。” 首长抬头直视着宋诚说。
“能解释一下吗?” 宋诚带着对失败者的嘲笑说。
“设想一下,如果 DNA 从来不出错,永远精确地复制和遗传,现在地球上的生命世界会是什么样子?”
在宋诚思考之际,白冰替他回答了:“那样的话现在的地球上根本没有生命,生命进化的基础——变异,正是由 DNA 的错误产生的。”
首长对白冰点点头:“社会也是这样,它的进化和活力,是以种种偏离道德主线的冲动和欲望为基础的,清水无鱼,一个在道德上永不出错的社会,其实已经死了。”
“你为自己的罪行进行的这种辩解是很可笑的。” 宋诚轻蔑地说。
“也不尽然。” 白冰紧接着说,他的话让所有人都有些吃惊,他犹豫了几秒钟,好象下了决心说下去:“其实,我不愿意将镜像模拟软件公布于世,还有另一个原因,我…… 我也不太喜欢有镜像的世界。”
……
“这就是我们的城市,是一座空城,已死去两千多年了。”
死城给人的第一印象是一个正方形的世界,所有的建筑都是标准的正立方体,且大小完全一样,这些建筑横竖都整齐地排列着,构成了一个标准的正方形城市。只有方格状的街道上不时扬起的黄色沙尘,才使人不至于将城市误认为是画在教科书上的抽象几何图形。
白冰移动视点,进入了一幢正立方体建筑内部的一个房间,里面的一切已经被漫长岁月积累的沙尘埋没了,在窗边,积沙呈一个斜坡升上去,已接上了窗台。沙中有几个鼓包,像是被埋住的家电和家俱,从墙角伸出几根枯枝似的东西,那是已经大部锈蚀的金属衣帽架。白冰将图像的一部分拷贝下来,粘贴到处理软件中,去掉了上面厚厚的积沙,露出了锈蚀得只剩空架子的电视和冰箱,还有一张写字台样的桌子,桌上有一个已放倒的相框,白冰调整视点,使相框中的那张小照片充满了屏幕。
这是一张三口之家的合影,但照片上的三人外貌和衣着几乎完全一样,仅能从头发的长短看出男女,从身材的高低看出年龄。他们都穿著样式完全一样的类似于中山装的衣服,整齐而呆板,扣子都是一直扣到领口。宋诚仔细看看,发现他们的容貌还是有差别的,之所以产生一样的感觉,是因为他们的那完全一致的表情,一种麻木的平静,一种呆滞的庄严。
“我发现的所有照片和残存的影像资料上的人都是这样的表情,没有见过其它表情,更没有哭或笑的”
宋诚惊恐地说:“怎么会这样呢?你能查查留下来的历史资料吗?”
“查过了,我们以后的历史大略是这样的:镜像时代在五年后就开始了,在前二十年,镜像模拟只应用于司法部门,但已经对社会产生了实质性的影响,人类社会的形态发生了重大变化。以后,镜像渗透到社会生活的各个角落,历史上称为镜像纪元。在新纪元的头五个世纪,人类社会还是在缓慢发展之中。完全停滞的迹象最初出现在镜像六世纪中叶,首先停滞的是文化,由于人性已经像一汪清水般纯洁,没有什么可描写和表现的,文学首先消失了,接着是整个人类艺术都停滞和消失。接下来,科学和技术也陷入了彻底的停滞。这种进步停滞的状态持续了三万年,这段漫长的岁月,史称‘光明的中世纪’。”
“以后呢?”
“以后就很简单了,地球资源耗尽,土地全部沙漠化,人类仍没有进行太空移民的技术能力,也没有能力开发新的资源,在五千年时间里,一切都慢慢结束了......就是我们现在显示的这个时候,各大陆仍有人在生活,不过也没什么看头了。”
“哦——” 宋诚发出了像首长那样的长长的一声,过了很长时间,他才用发颤的声音问道:“那…… 我们该怎么办?我是说现在,销毁镜像吗?”
白冰抽出两根烟,递给宋诚一根,将自己的点着后深深地吸了一口,将白色的烟雾吐在屏幕上那三个呆滞的人像上:“镜像我肯定要销毁,留到现在就是想让你看看这些。不过,现在我们干什么怎都无所谓了,有一点可以自我安慰:以后发生的一切与我们无关。”
“还有别人生成了镜像?”
“它的理论和技术都具备了,而根据超弦理论,创世参数的组合虽然数量巨大,但是有限的,不停试下去总能碰上那一组…… 三万多年后,直到文明的最后岁月,人们还在崇拜和感谢一个叫尼尔.克里斯托夫的人。”
“他是谁。”
“按历史记载:虔诚的基督教徒,物理学家,镜像模拟软件的创造者。”
这套系统,我估计是为了融资和变现才针对学生的,明明有更需要它的地方啊。
1. 养老院。
这样老人的问题能被及时发现,不论摔倒还是心血管意外,吃东西噎着喝水呛着,睡着了没盖被子,等于请了个护工随时盯着,价格便宜量又足,护工的工作量也减轻了,岂不美哉。
2. 幼儿园
孩子摔着了,孩子把自己弄伤了,孩子上课困了,孩子们打架了,孩子吃东西噎着了喝水呛着了,减轻老师负担。
3 普通病房
没有陪护,打点滴睡觉了的,一口痰呛住的,行动不便摔了自己的。
总之,社会上存在大把需要人监护,没有什么隐私可言的地方,为什么不在这些地方使用?
因为还有较为便宜的护工,因为幼儿园老师还找得到,因为大部分人住院能找到陪护,但是学校没有陪读,老师没那么热心,关注每一个孩子,家长焦虑,有焦虑就有市场。
说明啥,说明中国的劳动力还是太多。
这种系统应该用在 xx 大会 x,判断开会的时候这些人是否认真,让领导先用。
同时给支持这套系统的人,办公室也都装上,判断干活的时候他们有没有摸鱼。
-————————– 分割线 —————————–
我知道知乎算法不允许我这种 xx 不正确的没图没大段文字的劣质答案在潜在热门问题第一位,所以我补充一点吧。
就在学校应用而言,谁能保证你们上课从来没开过小差?或者说,回答问题不举手?
如果这套系统在学校全面应用,那每个孩子不是独立个体,而是机器。为了满足这套监控系统 KPI 的机器。
进一步,可能很多天赋就此被扼杀。比如,喜剧演员,举个例子,脱口秀演员卡姆,他在学校就是一个特别典型的调皮孩子,但在这套系统里,他应该是评分永远最低的那一档吧。
换而言之,你上班的一举一动,也将成为监控下的评分标准。
王二,今日 9:08 到岗,19:26 离岗,电脑亮屏时间共计 9.3 小时。全天看手机 47 次,总计时长 108 分钟;上厕所 3 次,总计时长 40 分钟;根据视频分析,电脑浏览非工作相关网站总计 51 次,总计时长 2.2 小时。全天工作时长不足 8 小时,建议谈话。
事实上,亚马逊已经开始了。
亚马逊内部文件显示,电商巨头利用算法去自动解雇未达到生产率指标的仓库工人。公司发言人称,由于无效率大约 300 名全职雇员的岗位被终止,而该运营中心有大约 2500 名雇员,解雇数量超过了员工总数的 10%。文件展现了亚马逊的一个自动化的跟踪和岗位终止流程。亚马逊的自动化系统跟踪了每一名员工的生产效率,无需上司意见就能自动发出与质量或生产率相关的警告或岗位终止。
老师觉得应当让学生多参与教学活动。所以,读书、举手、听讲、阅读是好的 KPI,趴桌子、玩手机、睡觉是坏的,所以要扣分。当然,这套评价标准还可以根据需求者定制,比如,坐姿标准程度、写字标准程度、举手速度等等,这些都是好事啊;也可以添加坏事,比如,是否传小纸条、下课特定男女生是否过多接触等等,防止你早恋嘛。
工作中也一样,只要老板想,实时分析你代码质量都可以。
所以……
比如刘慈欣的《镜子》就描述了终极场景:
这是一张三口之家的合影,但照片上的三人外貌和衣着几乎完全一样,仅能从头发的长短看出男女,从身材的高低看出年龄。他们都穿著样式完全一样的类似于中山装的衣服,整齐而呆板,扣子都是一直扣到领口。宋诚仔细看看,发现他们的容貌还是有差别的,之所以产生一样的感觉,是因为他们的那完全一致的表情,一种麻木的平静,一种呆滞的庄严。
“我发现的所有照片和残存的影像资料上的人都是这样的表情,没有见过其它表情,更没有哭或笑的”
宋诚惊恐地说:“怎么会这样呢?你能查查留下来的历史资料吗?”
“查过了,我们以后的历史大略是这样的:镜像时代在五年后就开始了,在前二十年,镜像模拟只应用于司法部门,但已经对社会产生了实质性的影响,人类社会的形态发生了重大变化。以后,镜像渗透到社会生活的各个角落,历史上称为镜像纪元。在新纪元的头五个世纪,人类社会还是在缓慢发展之中。完全停滞的迹象最初出现在镜像六世纪中叶,首先停滞的是文化,由于人性已经像一汪清水般纯洁,没有什么可描写和表现的,文学首先消失了,接着是整个人类艺术都停滞和消失。接下来,科学和技术也陷入了彻底的停滞。这种进步停滞的状态持续了三万年,这段漫长的岁月,史称‘光明的中世纪’。”
“以后呢?”
“以后就很简单了,地球资源耗尽,土地全部沙漠化,人类仍没有进行太空移民的技术能力,也没有能力开发新的资源,在五千年时间里,一切都慢慢结束了......就是我们现在显示的这个时候,各大陆仍有人在生活,不过也没什么看头了。”
国内的大公司有责任将人工智能技术应用在好的方面,而不是去作恶。何为作恶?己所不欲,勿施于人。旷世的开发者可以先想一想自己当学生的时候,愿不愿意被监视,被分析;自己在办公室工作的时候,愿不愿意时刻被盯着,行为被计入绩效;自己的孩子在学校,偶尔犯个小错,作为家长愿不愿意他/她的行为被永远记录。如果不愿意,那就不要做出这样一件产品,无论是因为什么理由。
如果没有经过家长的同意,私自安装这样的监视设备,家长有权到学校抗议。
我曾和朋友讨论过什么样的事件会成为社会热点事件。其中一个重要因素是强势价值观。如果触碰了这种强势价值观,那公司就会死无葬身之地。旷视的产品监视到了小孩子身上,就已经触动了广大家长的强势价值观,此事件必然成为社会热点。如果旷视不及时认错,或者辟谣,扭转舆论,绝对会给公司带来极大损失。
一些大公司在开发一件 AI 产品的时候,一定要注意这件产品最后会带来的社会效应与舆论影响。如果预期这个产品会使大部分人心里膈应,哪怕会赚钱,也绝对不能碰。
AI + 教育有更多有意义的事情可以做。比如在 AI 的加持下,使创作优质网络教育资源变得更为简单。如果国内哪个公司(或者教育部)能把小学,中学,大学的课程都变成如这个网站 https://distill.pub/ 中每个网页的水准,那才是利国利民的大好事。
这是非常可怕的技术滥用。
大数据时代,把人工智能粗略地分成三个模块,就是数据采集,分析模型,决策执行。一般来说,应该先搞清楚决策需求,再建立分析模型,最后才是落实到采集哪些数据。
比如说,为了管控校园暴力,就要划分出容易发生霸凌事件的区域、时间段、特定行为标记等,以此规划分析模型,最后才是决定如何监控、提取哪些数据。
然而这个所谓的新产品,完全是反过来的。
它既不知道需求是什么,也没有合理的、经过充分讨论验证的分析模型,就是不管不顾地先把所有数据收集上来再说…… 这种玩意儿,首先得判定它是一个无效产品,然后才是讨论它有可能作哪些恶的问题。
来了,他来了,班主任带着 AI 技术来了。
趴桌子 2 次,
玩手机 2 次,
睡觉 1 次,
听讲 0 次,
阅读 0 次,
举手 0 次,
笑了 0 次,
厌恶表情出现了 10 次……
最后机器还可能得出一个综合结论:他是个有问题的孩子。
这简直比班主任可怕多了啊。
很多网友直指,这就是赤裸裸的侵犯学生隐私的行为。
随着微博和知乎上的讨伐声越来越大,**旷视科技也很快的发布了一则正式声明,**表示网上出现的图片仅仅是技术场景概念演示,公司在教育领域的产品专注于保护孩子在校园的安全。
这则声明中,最为关键的词就是 “安全”。但最具争议的讨论点之一,也恰恰是 “安全”。
天眼妹不禁想问,要解决孩子的人身安全,需要我们去分析他睡了多少次觉,举了多少次手以及瞟了同桌多少眼的问题吗?
或者反过来说,这些强加的条条框框,是否能够有效解决校园霸凌?
再或者说,我们知道这个孩子或许有几个表现不达标,那么我们有没有准备好对症下药的解决方法?
即便作为一名老师可能很了解一个孩子上课有不听讲的毛病,但是对于改变他的毛病却通常无能为力。
那会不会我们的关注点从谈及 “安全” 的一开始,就已经本末倒置了呢?
据天眼查信息显示 ,北京旷视科技有限公司成立于 2011 年,主要从事的是科技推广和应用服务。
而且就在今年,其刚刚完成了 D 轮融资,融资额为 7.5 亿美元,其中的投资方还包括阿里巴巴。
据公开资料显示,有着 “中国 AI 第一股” 之称的旷视科技在今年的 8 月 25 日,刚刚在港交所提交了招股书。相对于其他 AI 公司经营惨淡,旷视科技是仅存的硕果。
目前来说,旷视科技是一家 B 端公司,主要服务于诸如蚂蚁金服、小米、OPPO 和 vivo 等公司的人脸识别和智能拍照技术。
而且在今年的 5 月 16 日之前,李开复也一直担任该公司的董事。但能这样做的公司却不仅仅只有旷视科技这一家。
毕竟据天眼妹的了解,早在去年举行的安博会上,除了 “人脸识别技术” 成为硬件与方案的标配,几乎现场可提供场景解决方案的安防厂商中,有一半都表示可以做以校园场景为基础的人脸识别监控。
而在天眼查上搜索 “校园智慧解决方案”,也有企业声称可以提供室内人脸识别监控方案。
实际上,国内各省的平安校园建设已经持续多年,而出发点也都是为了预防各类侵害学生权益的事件发生,譬如阻止社会人员滋扰在校师生,再有就是让人痛恨的校园霸凌。
与此同时,2018 年教育信息化 2.0 行动计划的颁布,也让提高教学质量与效率的目标与更多更复杂的技术手段建立了联系。
然而,在技术应用愈加成熟与便捷的过程中,有些东西正在发生变质。
**学校与家长的关注点从学生的人身安全,逐渐转向更加符合个人利益的要素上,**譬如如何让学生更加高效地学习,预防早恋等等,这些在他们看来都与更好的成绩,孩子们更好的未来以及学校更好的名声直接挂钩。
早在 2017 年,国内就有不少中小学安装了联网摄像头,家长在家里下个 app,就可以通过教室黑板上方那个摄像头,看到自己的孩子到底在教室里做些什么。
也曾有学生在微博上控诉过类似的事情,但并没有引起多少关注。
而在 app 远程监控的基础上,加入更加强大的人脸识别及分析,只不过是一种 “变本加厉”,而不是一家技术公司创造的原罪。
就在不久前,上海也有一所小学采用了 AI 监测设备。
与旷视推出的监测系统如出一辙的是,该学校也是通过构建智能课堂行为分析系统,运用如姿态评估、表情识别、语言识别、关键词匹配等技术,来对课堂教学过程进行定量分析。
通过**采集学生坐姿、举手、站立、打哈欠等课堂行为,**就可以进行学习状态、课堂有效性、学习兴趣等相关性研究。
可是这样看似是有利于学生学习的 “监控” 就真的没有限制到他们的自由、不会影响到他们的身心健康吗?
更有甚者,直接利用智能手环来监测学生。之前被报道出的**广东省著名中学广雅中学就被指控斥资 480 余万采购近 3500 个智能手环,**目的就是为了可以对学生进行 24 小时的监控。
不管出于什么目的,这种 24 小时的实时监控,坐牢都没这么夸张吧?
**将所谓的 “保护” 转变为 “过度保护”,以保护之名行“监禁” 之实,**天眼妹真滴很心疼这些被监控的学生们。
水至清则无鱼,人至察则无友。
人不是机械,或者说,在哲学上,人这个字眼就意味着犯错和改正的能力,正如 DNA 也会有转录错误的时候——但正因此,进化才有可能。
将学生置身于放大镜下观察其任何时候的一举一动,剔除他可能犯的任何错误,这是对学生的物化和最大的蔑视,只要一想起自己的孩子会处于这种环境,就有不寒而栗的感觉。
人的进步在于他不会按照以前的旧习循规蹈矩,失去了犯错和试错的机会,也就失去了创新的可能。
《1984》即将实现,《黑客帝国》还会远吗?
众所周知技术是中立的,沙林的发明是为了大规模杀猪,造福人类。
技术的确是中立的啊,所以做错的是人啊。
我就觉得很奇怪啊,有人在说技术不好么?啊?你一个技术中立还扯到文科理科生了你不是故意的么?
这路子和说 “枪是中立的所以不该禁枪的一个逻辑”,问题是禁枪本来的意思就是禁止“人持有枪” 啊。
这种事情本身就是在说人,没必要扯到技术上去,扯过去的都是不安好心。
好了,我在新西兰进行教师培训的时候,有一个作业就是对几个学生进行采访,然后要整理成笔记交上去。
即使这么一个十五到二十分钟的采访,学校也给了每个我采访的学生一份知情同意书,说明了采访内容的用途和限制,以及说明了他们的隐私权。
再比如说我们学校要做个宣传,找了一个班级拍了几张照片,好了一堆同意书打印出来,说明照片是做什么用的,怎么用,他们同意不同意。
当然了,中国大坏境我知道,你学校打印同意书让学生签字,估计要是家长觉得这系统好的话把自己孩子打死也要逼着他们签字。
但是我还是要问学校和企业,这知情同意书你拿得出来么?我看得到学生的签字么?我看得到家长的签字么?
我再要问学校和企业,现在带着学生脸的截图满天飞,学生和他们的家长给许可了么?允许你做宣传用了么?允许你做商用了么?
这视频,谁能看谁不能看,家长知道么?学生知道么?你有什么措施防止不该看的人看?如果不该看的人看了怎么赔偿?如果有人看到啥好玩的表情动作他把视频放网上或者做成表情包你们怎么赔偿?
这视频储存多久?啥时候销毁?怎么销毁?学生现在未成年人以后成年了他有没有权把视频拿回来?有没有权要求你们销毁?
这全都是可以预见的问题。
说到底,本身就是人的问题,不要用技术来搅浑水。
我本身不信任的就是人啊!
初看有种浓浓的电幕监视的即视感(1984),为那群孩子默哀。
尤其要强调的是,这里搜集的是极其私密的信息,还是在半公开场合,和公共场所的例行的浅层次的监控完全是两回事。
再仔细想想,这种技术现在当下应该只能出现在伦理要求极严格(特别是隐私保护)的心理学实验中(避免严重后果的出现,估计学校单方面不一定知道潜在的后果),被仔细审视后,才有可能在避免误用的基础上谨慎使用的。
只能让人联想到糟糕的伦理遵守氛围(我知道的就有贺建奎的人类基因编辑,以及心理咨询板块中暴露出来的职业伦理管理的无力),旷视是无知者无畏,在技术可能会作恶的情况下参与其中,是可能会为虎作伥的。
不要说技术中立,技术只制造剑,可以用来守护,也可以用来杀戮,要看剑握在谁的手上。这里旷视是能影响到学校的,是有选择的。
但这个事和李彦宏的隐私说,和百度是不一样的,铺天盖地的医疗广告,是百度利用了其信息流通中的垄断地位为他自己都可能不知道的东西背书,对后果视而不见,之前的广告小小的 V 字更没几个人能看懂,这已经是恶意误导了。李彦宏的隐私论,作为一个公众人物,对存在的不合理的现状,不是力图改变,更有进行洗白的嫌疑,只能说不辨是非,有点沆瀣一气的味道。
在现代社会中,许多关于我们个人的信息,都在我们自己无意中被采集。图中类似的技术已经被用到很多情境下了。比如安保和城市服务。天罗地网对于破案,对于解决城市中的交通问题,甚至对于解决浪费问题都是很有帮助的。大量的量化资料是科学分析得出可靠结论的前提,也是科学决策、科学治理的需要。许多人还曾梦想用更充分的信息去安排生产,减少浪费,这样商人才不容易把卖不完的牛奶倒进河里。
医院里也可能有类似的监控手段,身为一个有医院工作经历的人,我很清楚,在医院里使用类似的技术,可以最大限度地约束医院暴力,使得执法者有证据可依。我巴不得在医院的公共区域内多安几个摄像头,这样那些扰乱秩序的人至少是一种非常有力的威慑,这是对医务人员的保护。当然,这类技术还有许多其他的潜在价值有待开发,我们有许多可以保持乐观期待的地方,比如,及时发现公共场所里突发健康问题的患者。
而这项技术用于学校时,应该注意的是,学校的教室本身不是什么私人空间,在教室进行的大部分活动,尤其是面向众多学生的课堂讲授,以及学生在上大课时的行为,恐怕并不剩下多少 “隐私” 可言,技术只是帮助教师更精确地监控学生的行为的工具。教师上大课的时候从来就没有理由不能关注学生的反应。
我个人比较担忧的,主要有以下一些:
技术层面的问题,首先是技术识别是否准确,现有技术真能准确判断学生们究竟在干什么吗?又比如,图片上看到的东西,比如学生各种行为的次数计数,可能被不合理地解读或者透露给其他人,还可能被用到不恰当的地方。**我们设计了程序,未必代表我们能准确解读程序给我们统计出的结果。**毕竟走神是一种正常的心理现象和生理现象,上课睡觉未必是学生不努力的表现,至于举手与否,按我个人的生活经验,恐怕中国学生许多上课都不喜欢举手。另外,这类技术的社会影响存在不好的一面,如果学生们知道自己的一言一行被监控到如此程度,还会被老师过度解读,这可能会出现严重的焦虑,这种情绪可能会影响学生的学业表现。虽然我知道,在公共场所监控水平高一些,对公众来看未必有多少坏处。但是,许多时候,学生们怕不是被管得太严,已经到了严重损害身心健康的地步了。技术的发展是为了提高教育水平,使学生受益,而不是把学生搞得草木皆兵,道路以目,不敢说话,这与教育的目标背道而驰,对学生和学校都没有任何好处。
当然,还有一些技术不能解决的问题。**我们使用科技手段集中采集数据,却并没有准确界定这些资料的产权。谁有权得到它们,使用它们,披露它们呢?其中的哪些部分又能披露给谁呢?这种所有权的归属是如何界定的呢?**比如,学校领导和老师中,哪些人有权访问哪些数据?教育局呢?大学和研究机构的研究教育的人呢?学生和家长呢?公安局呢?这些数据深挖之后的处理结果,产权又属于谁呢?学生被观察和研究,被统计,他们成了研究对象甚至实验对象,要不要知情同意?我们目前还没有特别公认的标准去界定上述所有信息的产权和使用流程。我们获取了这些信息,有人也应该对这些信息的保密性和流动范围负责。
最后的最后,当然是和其他情况一样的,信息泄露的问题,我们采集了数据,却没法保证它不被盗用或泄露给不恰当的人,这是不负责任的,也是非常危险的。
实际上,类似的 “课堂行为分析” 的产品,早就有类似应用的新闻稿出来,旷视这一次 “爆红” 估计有很多因素,竞对有没有 “功劳” 不好说。
这个 “产品” 好不好?
答案是:毫无底线、非常不好!
做个类比,基本可以和百度出售贴吧,卖药;抖音的三无二类电商;拼多多的 “小米新品” 一样,为了 KPI 为了利润,不择手段。
AI 落地难,基本是共识;CV 方向算是 AI 目前落地最好的方向,这也基本是共识。
拿着锤子找钉子,看什么都是钉子。这种局面,短期内不会有效改善。
说的好听点,这叫:失措、尝试、发掘应用价值、寻找潜在痛点、技术创新。
在一定程度上,我们要鼓励、接受并容忍这种 “创新”,毕竟,创新的出发点是好的,创新的目标也是帮助解决问题。
比如我在:
中吐槽的人脸识别误报的 “人工智障”。虽然这个事情,产品经理、技术经理、算法经理整体表现是不及格的,但是,这个落地方向、落地形式没大问题:
通过技术辅助,纠正行人在交通场景下的行为不规范问题,一方面有助于缓解市中心区域的道路拥堵问题,另一方面为 L4 自动驾驶顺利上路,能够做一点点小小的贡献。
那这套系统呢?
从目前能看到的图片来看,底层技术应该就是 “分类”,至于是不是用到了表情识别来判定听课的认真程度,没有见到实际系统,不好评估。
分类系统的偏见,是来源于 “标注” 者的“偏见”。
产品如何定义 “听讲” 的正常图像表征?标注经理如何让 “标注” 人员理解什么是 “听讲” 的标准图像,并正确标注?
是抬头挺胸目视前方算听讲;还是低头沉思也在听讲;甚至是抱着头冥思苦想也是在听讲?
如果用的情绪识别做的判断,那么就那 6~7 种微表情,哪些表情反应的情绪是 “听讲”?
这种基于人为偏见的分类,不是不能用,要看场景。垃圾分类可以拿出去用么,错了就错了,没有伦理道德错误、也不死人的事情,技术可以去做尝试。
用人为的偏见去 “分类” 学生是否在听课,想什么呢?
如果炼丹师招多了不知道让干嘛,算力闲置了不知到跑什么,建议:
先开发一个 “产品经理” 分类模型,评估下产品经理胜任度、日常有没有在认真思考,有没有在老老实实画原型图。
再开发一个 “商机评估模型”,能合理的评估商机来了做不做,怎么做。
这种 “无底线” 的技术运用的场景考虑,绝非单方面想出来的,可以大胆假设:这边问你们有什么 “痛点”,那边说“我们课堂秩序不好”,然后,产品经理们就开始在领导安排下,创造性的“构想” 了一 MVP,考虑到标签种类之全面,无论是数据采集还是标注,周期与成本都不小,这事高层大概率是点头了的。
隐私保护考虑步骤,这个可以用 “年轻、经验不足” 来洗地;
做为定义这个产品的主导者,可以说是常识、逻辑、底线三无。
**常识:**教育的本质是什么?是为了 “监控” 学生课堂行为么?不懂可以看看知乎的这个问题:
教育是什么?教育的本质是什么?3552 关注 · 457 回答问题
还不懂,去 Google 吧。
逻辑:课堂秩序、学生听课行为是靠这样的 “监督” 保证的么?为什么有些教授的报告会、课堂座无虚席,蹭课的、去晚了还只能站着听?为什么有些老师的课堂需要这些 “技术手段” 保证“学生在听”?问题的本质没搞清,产品的逻辑就是:“给钱就做”。
底线:做事无逻辑、无常识,仅为 “利”,怎么会有底线,只要有人买单,根本不去考虑这事情:对不对、合理不合理、能不能做、社会影响好不好。今天能用 CV 监控课堂,明天就敢用麦克风监控宿舍,后天,不敢想还能干出来什么。
旷视 9 月 2 日的声明说:网络上出现的课堂行为分析图片,为技术场景化概念演示。旷视在教育领域的产品专注于保护孩子在校园的安全。
“专注于 A“,技术场景 “概念化演示 B”。
嗯,解释的很合理。
我只能说,有钱烧的慌,概念化演示都会专门去采集数据、标注、训练。
技术向善!技术向善!!技术向善!!!
想到了一个德国的真人秀节目,Pig brother is watching,直播的是一群野猪的日常行为。今天居然搬到了孩子们身上。
且不说这个系统是否侵犯隐私和损害人性,单单是从教育本身来说,也绝对是扭曲了教育的基本规律。教育构建的是个体发展的长期目标,这种短期即时反馈完全是在肢解教育,鼠目寸光,这些公司是在靠害人挣钱。
ai 只能做这种毫无意义的弱智东西吗?这些垃圾公司早晚破产
Disgusting
我上高中的时候,上的是成都七中的网校的本部班。这个问题一度在知乎上很火。我们的教室里,装满了摄像头。
刚开始的时候,每个人真的都非常的局促不安,觉得自己的每一言一行都会被拍摄下来。那种压力别提有多令人不爽了。
然而,后来我们知道,摄像头多数时候都是对准老师的,只有在回答问题的时候,可能会给学生。
所以自然,课堂恢复到了往常的 “自然”。说话,吃东西,看小说,玩游戏,睡觉。作为物理科代表的我,经常因为在物理课上睡觉被老师 “善意提醒”。因为是直播,所以老师每次都是关掉麦克风再说 “我提醒一下,有的同学趴在桌子上的。”
说实话,老师需要这套监控吗?其实不需要,站在老师的视角,谁上课爱睡觉,爱说话,爱搞小动作都一目了然。这套系统完全就是为了满足部分领导的窥视欲与控制欲。
把学生当作流水线上的产品,讲究每个环节的 “质量监控”,得到的也只能是死板,充满怀疑缺乏灵性的标件。
大家之所以这么反对,也是因为怀念自己最自由最无忧无虑的学生时代。
相信我,如果这个得以推广,你甚至会开始怀念来自班主任的 “死亡凝视”。
这件事儿现在能吵大,实在是一件大好事。
我现在发现:中国未来最大的矛盾,是理科生的进展太快,文科生跟不上做好配套的矛盾。
我的观点:
从电力科学、到核能、到基因科学,都引起过人们的恐慌。人类对每一项新技术,接受速度都有点慢。
理科生的科研速度,远远走在我们全体人民的前面。
前阵子刷到周玄毅的微博,他表示:
当你们还在纠结 AI 进校园的时候,真正该研究的,已经是脑后插管了。
当微博上大家都非常不爽镜头进学校的时候,AI 早就已经盘旋在我们上空了——
上周我访问了深圳市龙岗区数据中心,这个数据中心,通过建立起从摄像头、智能路灯杆、无人机巡航、再到人工上门核实校正的立体体系,几乎已经覆盖了生活的方方面面。
指挥中心,背景是一块电影银幕,下面工作人员往来操作。
可以非常方便展示出城市内部的各项数据,很多都能做到实时更新,从温度、降雨、河流径流量、发电数据、出行数据、道路流动情况都面面俱到。(以下照片均为我自己拍摄)
系统对整个区域进行了建模,精度可以达到 2cm。在每一栋楼宇,点击放大,都可以显示该楼宇的登记居民身份。
系统已经细致到了,我只要乐意,我可以切入到任何一家饭店,看看里面在做啥,你们可以看一下左侧的操作菜单,可以控制镜头转向,放大缩小抓拍特写——
当然这不会仅仅是一个录像系统,而是在 AI 帮助下,对整个城市动态进行把控。
比如,我经过监控区域,系统会立即把我的身高、步态、年龄、性别、服装颜色和我绑定。如果我闯红灯,系统会直接把我圈出来,调出相关资料。等交警叔叔抓住我,我根本无法抵赖。
甚至,在无人机定期巡航中,可以通过对比不同时段拍摄的画面,及时发现违建,自动推送给相关部门处理——
这套设备,由华为提供支持,费用昂贵。多地政府参观完这个数据中心,都已经开始研讨下订,很快,类似的系统就将覆盖到我们每一个人头上。
这套系统监控的细致程度,远远超过一个根本没投入使用,光做了个 demo 的课堂 AI。
但是大部分人看到这套系统,不适感要远远小于微博上刷出来旷视 AI 的不适感。
这是华为这套系统做的最好的一点——选择了相对正确的应用场景,选择了人与技术共处的较优形式。
这里面展示的每一个细节,几乎都是在讲:这套系统,能如何利用数据及 AI 监控,让市民更有安全感。
比如:抓闯红灯,降低交通风险;抓违建,维护其他住客利益(拆迁的时候有没有加建骗补贴也一看便知,不刺激普通人);抓食品安全,让大家吃得放心。
我还看到另一个印象深刻的模块:边坡监控。
在每一个有滑坡风险的陡坡处建立监控体系,当降雨量达到一定毫米,AI 自动分析判断哪些陡坡存在风险,通过摄像头调取陡坡下是否有行人车辆,一旦风险达到临界值,立即推送给负责人员,进行危险排除。
这些每一点应用,在你参观过后,都不太会有不寒而栗的被监控感,而更多会有一种安全感。
我估计这是华为在多年的市场化运营中,积累了丰富的经验,产品经理懂得如何抓住用户痛点,进行产品的功能展示。
在如此敏感的监控领域,龙岗智慧城市系统几乎没踩到黑点,这就是功力。
当然,我能理解,依然很多人看了还是非常不适。这时候我们会面临技术时代的新型电车难题——
在技术降临下来之时,自由重要、安全也重要,我们愿意为了自由,牺牲多少安全?或者反过来:我们愿意为了安全,让渡多少隐私?
如果前面的边坡监控系统每年可以拯救两条生命,我们就可以让渡隐私,同意 AI 摄像头对我们进行识别么?或者,我们为了争取不被 AI 识别的权利放弃这个系统,我们愿意每年牺牲多少生命?
这个问题非常难。
所以恐怕一定需要广泛探讨博弈,才能在不同人群的共识中,找到一个最大公约数。
旷视 AI 这次展示,是很典型的 “理科生做出了一个先进的技术,文科生和产品经理没有搞清楚,这个技术应该如何落地”。
这个技术,如果以学生和家长为用户核心,很明显,应该重点展示这些功能:
如何保证学生安全,减少校园霸凌的出现?
如何通过 AI 分析学生之间可能的肢体冲突,及时扼杀暴力伤害苗头?
如何分析校门等敏感地带来往人群,降低社会人士对校内的影响?
即使是网上最敏感的微表情分析,也可以对学生有益——
能否通过微表情分析,在压力较大的升学期,及时发现学生的情感波动,及时给予心理疏导?
是否可以通过不同教学方式下,学生给出的不同反馈,来甄别更吸引学生的教学方式?
能否通过大数据,判断学生整体的倦怠周期和兴奋周期,指导老师把重难点放在兴奋期讲解,提升教学质量?
这套大数据分析好了简直可以发不少 paper。很明显这是教育信息化的必不可少的一环。
这可以是一套非常好的,提高课程质量,而非监控学生的智能系统。
家长们看到学校里上了个这么个系统,会不会更想把孩子送进这种学校去?
你说旷视的理科生们不懂?翻了下他们最近刚发的声明,里面说了一些很适合用在宣传里的点,比如用来智能控制校门、教室门、宿舍门的出入;比如家长访客人脸识别白名单,确保只有授权的人能接近孩子。
结果 Demo 被人截出来,媒体把敏感的挑出来,分析孩子们举了几次手,睡了几觉…. 这玩意能不让大家喷么?
以及,就算光做幼儿安保,也是浪费了这套系统可能创造的价值啊。
当然,我能理解,AI 的落地和优化,都在不断尝试之中。
我开篇讲到的智能城市系统,算是做的不错的了,在我看来,依然只发挥出功力的十分之一。
深圳龙岗的智能城市项目,付出了巨大的精力和金钱,甚至为了数据安全,专门在办公大楼负一层做出独立机房,设置私有云,储存收集到的大量数据。
但目前,这些数据,还没有统一进行系统深入的挖掘,还只是把权限分配给各职能部门,供各职能部门独立分析。
我在一家咨询公司工作,我是和我的上司一起去参观考察的。
参观之后,我上司问我:你看这里面有没有什么商机?我们是否可能在链条中创造某个价值?
我的回答是:以咨询公司独立第三方的身份,协助政府进行数据的深度挖掘,分析过后,为政务服务决策提供支撑。
顺便我们收点咨询费恰饭。
毕竟,花了这么多钱的一套系统,区里这么大一个指挥中心,你不可能让一个区长过来,指挥抓违建、抓小偷吧?
地下负一层里面的海量数据,都值得深挖研究。
建基在强大数据基础上的政务服务,将非常高效。
这就是我说的,技术取得了突飞猛进,配套的软件和机制还没有完全跟上。
再说校园 AI 系统,说了微表情分析可以用来判断学生的心理状况,及时提供心理疏导。
那判断的标准是什么?
疏导的方式是什么?
学校有配备具有职业资格的心理医生么?
关于系统的使用,老师可以分配多少权限?有没有关于权限使用的伦理指引?这套伦理指引你是不是也应该在网上公布出来,接受我们的监督?
如果这些软件都没有,岂不是又回到 “老师看你在摄像头里不开心就怼你几句” 的粗暴教育方式,这不正是大家最担心的么?
当你有了一项先进的技术,无异于领来了一只狮子。
但人们喜欢去马戏团看狮子,是喜欢看你对狮子的驾驭,而非看狮子多能打。
当你牵着狮子走向人群,应该展示的,不是它雄沛的咬合力,而是手中的锁链。
这就是我开头说的,这件事现在吵起来,是一件大好事。
至少我们在发出声音:技术以糟糕的方式使用,不如不用。
在产品还没有进入任何一个学校的概念期,先把问题暴露出来。
然后深入思考,驯服技术,把技术关进笼子里。
并为我所用。
the end
———
更新:
哎呀妈,看到评论区各种纠结 “文科生理科生”,这是个比喻(我自己就是个文科生),说的是:科学伦理的发展,需要跟上科技发展本身。
核技术、基因技术、人工智能,都是如此。
这很难,不过依然值得我们付出努力。
这问题的问题日志真好看 (各种公关疯狂改)
这个科技不应该首先用在监狱里面吗?
最近关于人脸识别的争论很多,一是旷视,另一个就是换脸应用 ZAO。
两种应用引发的热议,都离不开**用户对于个人信息被滥用以及人工智能被用于作恶的担忧。**在寻找应用落地和变现场景的过程中,缺乏有效约束的 AI 应用正在走向灰色地带。
9 月 2 日晚,旷视发布声明称,网传课堂分析图片为技术场景化概念演示,并称旷视的智慧学校解决方案可协助学校管理人员提升效率并保障学生安全,主要用于智能校门、教室门及宿舍的出入。旷视在声明中承诺,在人工智能技术的各种场景中,旷视会坚持正当性、数据隐私保护等核心原则。目前,最初上传图片的微博显示 “暂无查看权限”。
另一款应用深度学习和图像识别的换脸 APP“ZAO”,因用户协议中的 “霸王条款” 引来 “众怒”,下载潮和卸载潮来得同样迅速。8 月 31 日晚,ZAO 在没有弹框提示的情况下,对用户协议中引发强烈争议的条款进行了修改,承诺用户上传的信息将被保留在“ZAO” 上,不会在未获得用户授权的情况下将用户上传的视频和面部信息另作他用,且用户可以选择删除上传的短视频和面部信息。
AI 换脸并不是一项新技术,更早版本换脸技术 Deepfakes 和 Deepnude 因被应用于色情和政治领域,而被各大网站封杀。换脸技术已被开源,潘多拉魔盒已然开启。
而在国外,相关争议也不少。
瑞典北部谢莱夫特奥市的一间高中运用人脸识别技术进行学生考勤的试验。即使这一试验事前已获得家长们的同意,但瑞典政府认为,由于试验的受测者和实施者所掌握的信息过于不对称,因此推动这一试验的城市地方当局,仍遭到了瑞典政府的处罚。
谢莱夫特奥市政府在 2019 年 2 月份接受瑞典电视新闻 (SVT Nyheter)采访时称,由于该市的所有教师,每年共要花费约 1.7 万个小时,用于日常点名和追踪学生活动。为了节省教学时间,市政府准许个别学校进行试验,使用面部识别技术考察学生出勤情况。
这个名为 “未来教室”(Future Classroom)的试验项目于 2018 年秋季开始在该市的 Anderstorp 高中开始进行。在试验中,学校与北欧 IT 服务和软件公司叠拓(Tieto)合作,使用签名、智能手机 App 和面部识别技术,追踪 22 名学生的活动长达 3 周。主要的检测指标是每个学生何时进入教室。检测人员称,该技术 “相当安全”,地方当局本在考虑在扩大其应用范围。
瑞典数据保护局说,虽然学校的某些场合可以被视为 “公开场合”,但学生何时进入教室,依旧是个人隐私。此外,学校就算不使用摄像头监控,学校完全还可以通过其他“干预性更小” 的方式检测学生的出勤情况。
瑞典数据保护局还批评,该学校在启动这一试验项目之前,并没有咨询瑞典数据保护局,也没有获得事先批准及进行适当的影响评估。
除了对个人信息保护设定较高标准的欧盟 GDPR(通用数据保护条例),美国也对搜集面部识别特征上做法谨慎。据清华大学智能法治研究院研究员朱芸阳介绍,目前美国已经有旧金山、马萨诸塞州的萨默维尔市通过了禁止在公共场所使用面部识别软件的法令,而奥克兰、纽约等城市也在考虑类似禁令,甚至在联邦层面也在考虑是否采取相应措施。
面部识别特征,与虹膜识别、指纹识别一样,都属于个人 “生物识别信息”,是个人敏感信息。
朱芸阳撰文指出,个人生物识别信息的唯一性,存在侵害个人隐私乃至危害个人人身和财产的巨大潜在风险,面部信息某种程度上 “等同于要求每个人随时携带和展示带有个人照片的身份证”。而一旦人脸识别 + 活体校验被技术攻破,将直接导致现有社会安全系统验真环节失效。
过去一年多时间,AI 视觉公司正在通过各种方式以更为便捷和廉价的方式获得面部信息。比如和各类大型会议主办方合作,免费提供进出入门禁的人脸识别系统,参会人员至今无法获知被录入和识别的人脸信息的主要用途。
生物识别技术被不规范使用已引起行业头部自危。8 月 23 日,支付宝发布《关于生物识别用户隐私与安全保护的倡议》,呼吁合作伙伴以及整个行业能在规范、合理的前提下为用户提供服务,并在隐私保护、安全保护、防止信息滥用等方面提出倡议,包括 “对于储存用户信息的时长应建立规范和透明的制度”,“使用信息需考虑使用目的、范围是否具有必要性和合理性”。
参考文章:
商评 | AI + 视觉乱象初现 生物识别技术不规范使用有何风险?
道德先不谈,难道这玩意真的有用吗?你们真的以为下面做什么老师看不到吗,只是懒得管而已啊
看到很多答主在关注隐私保护方面。大家有这个意识当然是好的。不过参照这些年来,各种 Android app 导致用户数据泄露的 case 来看,还是很多人对隐私泄露的敏感程度还不够。也包括监管层面哈,相比之下,已经看到美国几个城市禁止摄像头的新闻了。
然后,从人性的角度来讲,有没考虑下教室里学生的感受,愿意被监控吗?对学生的个性 / 成长是否有影响?
此外,关于数据安全。我并不担心学校或者这些科技大厂会拿数据去作恶,但我担心他们没能力保护 / 或因疏忽导致的数据泄露。
不怀好意的畅想下,读书时有校园摄像头盯着你,逛街有各个路口的摄像头在着,工作时公司门口有刷脸考勤机等着的(或许工位上方也可以考虑下监工摄像头嘛)。甚至在家呆着时,一些 sensitive 的手机 App 都需要你做人脸验证了…
PS. 前段时间莫斯科的一个研究是在头上贴个贴纸,就可以让降低摄像头对人脸的识别率,也许去研究下对抗人脸识别的眼镜、帽子之类的,估计有市场,呵
Updated on 9/10
看到一个哥大教授的演讲《数据向善》,推广一下,技术不应该也向善吗
[讲堂丨哥伦比亚大学周以真教授:数据向善——数据科学的使命与应用mp.weixin.qq.com/s?__biz=MzAwMTA3MzM4Nw==&mid=2649449444&idx=1&sn=906f12df830d69db13e526f66c6da1ad&chksm=82c08a60b5b70376b466de2c72402a5b4d7e61c61b1fd8c2c2c21660198a853bfa690ced88ee&scene=0&xtrack=1&key=27b406fd0d3e7a04ca7b5be7ceec2ce8333a5f38f4dea3bca3497ece8ad7cdd71e2d404f778a846b15be2214b0febd1d71f2fbdd09826e4237f508cb77d85907e4f75f6ea7a64508b78f826cfdfde8b3&ascene=1&uin=MTU5NjExNQ%3D%3D&devicetype=Windows+10&version=62060833&lang=zh_CN&pass_ticket=qwZQQVHk6fgLk7%2Ft3b6E7Ar9N4CKCc2%2F9PyWxfCdLMI%3D
这件事有没有伦理问题?
如果用机器观察学生上课表现并汇报给家长是不道德的,那么老师观察学生上课表现并汇报给家长是不是不道德的?
这里涉及到很多问题,比如未成年人的人权问题。一般认为未成年人和成年人的权利是不同的,未成年人有没有独立于监护人的隐私权?老师踮脚尖往教室里看算不算侵犯隐私?
还有机器和人的区别的问题,机器和人在这里的区别,主要是人的观察是片面的主观的,机器的观察是全面的客观的(在标准公开的前提下),哪个更不道德?
刘慈欣的小说《镜子》里描写了一个全知的观察器,由于每个人的所有行为都会被别人看到,导致所有人都不敢犯错,同时也扼杀了社会的活力和创造力。
这个说法是有一定道理的,但是也有程度的问题,把一切都暴露在阳光下可能是不好的,但是黑暗丛林肯定也是不好的,这是个平衡问题,平衡点在哪里需要探讨。
面对新技术要理性分析,一味地从感性出发搞滑坡谬误和错误类比是不可取的。实际上摄像头做的事老师都已经在做了,这里的问题是同样的事由机器做和由人做的区别。
另外在这件事上有决策权的是校方,家长,和政府。学生是没有决策权的,因为学生既不出钱,也没有政治权利。
技术很好,建议先在党和政府的各级各类会议上推广使用。
高票说的什么玩意,还 “理科生做出个好的技术,文科生和产品经理没有理解产品怎么落地”。不愧是做房地产的,对一个产品项目从需求到实施到售后的描述处处都在违背我工作 9 年的常识。
最讽刺的就在于,他那空口脑补产品生态周期的回答就很符合他要批判的不切实际的文科生,让我都不知道该抱什么心态反驳;任何从业者随便参加过一次相关行业的招投标都掰扯不出他那套长篇大论的幻想。
这个幻想是什么呢?很多人吧,又不参与具体的项目、产品运营,又不介入公司具体开发投入的决策,总觉得产品都是凭空蹦出来的,然后无论是销售渠道还是客户都是水到渠成的,合同签了,钱就到了,然后无一不出现了一下结论:
真的,有这脑补文科生和产品经理的时间不如直接和相关企业 R&D 工位的哥们聊一聊,看看研发上一个环节是啥。
我就奇了怪了,大部分情况下产品经理一不负责最初产品需求制定_(除非是研发直接调的,不过他也不是提出具体需求的人)_,二不负责制定产品研发细则,三不决定产品销售渠道,四不主导产品营销,他和所谓文科生何德何能去背这个锅?他能决定客户具体要在什么应用场景使用这个产品?
这个问题和文科生理科生有啥关系?这个产品问题的关键甚至不在旷视科技上。
就算你说文科理科生就是个类比,你这个思路在具体这个事情上依然是错的,完全颠倒了产品开发的次序。
很简单,自己看看那产品演示都具体到啥样了,识别判断功能都细致到举手瞌睡开小差 1234 了,中间没有反复和客户确认需求细节你信?技术工程师懂课堂管理?没这个具体应用场景的市场和客户需求,R&D 吃饱了撑了开发新的课堂学生面部识别技术?是他们觉得这样很 cooooool 还是工作量不够饱满?
再想想:这个产品需求究竟是谁提出的?
参加过 19 年五月的教育装备展
前提: 参展期间看到包括华三教育在内的很多公司,都推出了上课的行为检测
回去之后和当班主任几十年的妈妈讨论了这个事情,妈妈说觉得这玩意太压制学生天性了,做什么都被盯着,就算是大人上班也会开小差,学生上课开个小差本是情理之中的事情
现场很多来宾对于类似系统,更多的提出质疑,觉得是不是太过了
我感觉该技术适用于考试的行为监测,但是不适合日常的上课行为检测
求求厂商给孩子们留一点自由的空间吧
20 世纪一件大事: 人类在确保自己生存之前, 已经掌握了自己的死亡. – 核弹.
21 世纪一件大事: 人类在确保自己隐私之前, 已经确保了自己的无隐私. – 手机 + 监控
-——–
从教育心理学角度,
学生如果把 “最符合教学要求的行为” 为优化目标,
可能最后的结果是 “没有达到学习效果”.
有的孩子, 神经导致的过程就必须要有溜号 (是一种休息大脑准备下一个学习), 有的就是要跳跃式接受新鲜事物, 有些就是会逃避逃避直到别人作业做完他才真能在压力下学到新知识 .
在这种情况下吧, 短期的行为管理, 是否有助于长期的注意力培养, 和长期的记忆培养, 长期的能力培养, 自主学习的意识培养, 真的不好说.
所有的韭菜必须用同样的光照, 生长速度, 这样才可能长的一样快???
王欣能被判刑,这个时候你再说什么技术无罪,道德中立属性,是不是有点双标了。
每个人都该有私隐,今天你说一句月饼,手机 APP 听到了立刻给你自动下单花呗扣款,晚上就送到了,确实是先进科技改变生活,但想必也不是什么惊喜的体验。
而且更加令我担忧的是,一旦我国青年跟香港青年一样连租鸡青一都不可得时,那会儿无处不在的人脸识别,铁桶般的社会管制将让你无可遁形,人民已经普遍被洗脑,觉得维权就是乱党,再加上全球最难用哪儿都去不了的护照,那会儿恐怕上天台都得摇号了。
这是一次人类对新技术接受程度的社会学实验. 实验表明人类还不能接受技术控制人类的前景.
此实验足以让人们反思并预测一个很现实的问题: 人类是否必须由人类阶层控制?
如果回答为是: 人类对人类大脑资源的利用就会有一定的瓶颈, 因为必须由人类管着人类. 且这不可能被技术 (计算机, AI) 代替, 所以就必须 “浪费” 一些大脑资源来对人类社会进行管理. 人脑就还是会被用在这些低级的简单事物层面上. 计算机对人类带来的优势就会有上限.
如果回答为否: 则计算机可以实现很廉价并精确的的管理人类行为. (旷视的系统虽然不廉价也不精确, 但是起码是一个开天辟地的尝试, 有很多改进空间.) 人类大脑就可以被利用在高端的更复杂的任务上.
这个实验支持回答为 “是”.
旷视: 我不下地狱, 谁下地狱?
我对我以上的想法和推理还是持有质疑态度, 但不代表不可以给你们读者一些宏观的新思路.
毕竟现在人脑还是更厉害一些…
看到这个问题我气得浑身发抖, 大热天的全身冷汗,手脚冰凉, 这个社会还能不能好了,孩子们到底要怎么样你们才满意?想到这眼泪不争气的流了下来。
忽然想念两句诗:
“其政闷闷,其民淳淳;其政察察,其民缺缺。”
“天下多忌讳,而民弥叛;民多利器,国家滋昏;人多知而奇物滋起;法令滋彰,盗贼多有。”
孩子上个破学就为了做那几道破题,考那几个破分?
救救孩子!
还不赶快报警?
还看待个蛋蛋?
如果不想做奴隶,一根激光笔应该可以解决问题吧?把相机镜头照出光晕,一片白也看不见是谁照的,学校还得雇佣真人版教导主任在后门监视
如果旷视是男人的话,应该把这套系统先用在自己的员工身上,并研发一个 “东厂” 智慧大脑,把 HR 功能发挥到极限。也就是说,旷视员工的码字速度、喝水频率、表情专注度和刷知乎频率都要被记录并用来评绩效。
PS. 参与过一个小公司的针对课堂教育的智能监控项目,客户是南方某职业技术学校,
由于是小公司,数据要自己收集标注一些,学校给采集了几十个视频,
我震惊的发现:
没有人喜欢被严密监视
拿大学课堂来说,学生在课堂上的出勤率,是教师和教务系统都比较关注的指标
如果想要做到彻底监控,可以要求学生在进出教室时都刷学生卡,学生在教室里的时长可以精确到秒,这在技术上完全可以实现
而且至少看起来也是理所应当,合理合法
然而实际上并没有多少高校会推动做这个事情
除了成本问题
不过于严苛地监控学生的行为,以免造成学生反感
也是考虑之一
还有一些老师,喜欢给学生排座位
像中小学一样,人和座位一一对应
这样,哪个学生缺勤了,一眼就能看出来
但采取这种做法的大学老师也是少数
更多的老师,宁肯采取口头点名这种容易冒充且不严谨的方法,或者干脆不考勤
因为绝大多数人对这种精确的监控都是不喜欢的
一个学校,没有确保信息安全不外泄的技术能力和人员监管体系,经不起像样的黑客攻击,也防不住内部人卖信息。
监控视频体积大、时间长、分析难,搞事情存在客观困难;但 AI 精炼过的文字、截图、片段嘛……
没有可洗空间,现在监狱升级的也是类似的系统。当然它已经不是第一家了,搜搜新闻这块已经 “竞争激烈” 了。以后孩子们都将从 prison 学校毕业迈入 prison 社会? 先是弱势的学生然后企事业单位员工然后机关公务员,一步步,无人可逃。
截图来源:https://mp.weixin.qq.com/s/0XROqI-u3osDg-HXiE0-ng
始作俑者,其无后乎?
技术要怎么用向善? 幼儿园小学可以有储存式 (而非识别式) 监控,且有不能删改的储存,中学可以有考试特别是高考时用的储存式监控(平时不用或者要申请并经同意才能查看),储存作为事后查阅证明,那种老师家长下载 APP 都能远程实时监控的完全没把学生当一个人格平等的人对待。公司单位除了机密区域,普通办公区最多走道大厅有摄像监控。这些地方都不需要识别式的 AI 监控。
补充:
我觉得确实是过了,不管是在装在教室还是装在单位,都是不应该的,类似的情况就是我也挺反感钉钉这个软件。
有些人可能会说,专心听课不应该吗,老板出了钱认真工作不应该吗,开小差摸鱼还有理了?
我觉得不是这样,摸鱼是人类的天性,不要说工作学习了,就是你和男神逛街,和父母吃饭照样会有心不在焉的时候。走神、小动作是心理学原因的,枯燥的会议让人昏昏欲睡本来就是人体的自我保护机制。
实际上如果学生知道这个系统,然后装出一副积极举手认真听讲的样子,只会更影响学习效率。
《我们由奇迹构成》里小林薰对学生为什么不认真做出了解释。
而且更重要的一点,就是认真上课是学习过程不是学习的目的,老板发工资买的是你的工作成果不是工作态度,员工负责的不是工作应该不应该认真,而是工作能不能保质保量按时完成。你给我发薪水,我给你完成工作。不关我是呕血三升拼了老命完成的,还是随随便便玩着玩着就完成的,总之干了就行,考试能出成绩就好,态度认真不认真,你管不着啊。
我们假设单位里有个业绩普通的员工,他业绩虽然不是最好但也排在中流,还有一个虽然很认真却经常把事情办砸的员工,对公司发展来说前者怎么看都比后者要有用,非要强调平时的工作态度完全是本末倒置,从普通人的视角看反而更像是找茬,领导的虚荣心和支配欲真不是员工应该承担的事情。
这套东西甚至可以用来搞老师,比如老师甲课堂纪律一般,学生平均分 80,老师乙课堂纪律很好,学生平均分 70,然后评先进的时候校长说本月我们素质教育抓纪律……
一边是点状,带状的高度发达资本主义,基因编辑和 ai 监控等技术革命的先锋;一边是片状面状的前现代社会,宗族家族社会回炉再生。二者共存,这就是真实世界的赛博朋克。
两者激荡几十年,人文学科,社会科学,批判理论的春天要来了。毕竟在帝国主义薄弱环节,以及粗放发展的阶段,才最容易出成果不是?
两年前大家还在嘲笑欧美的限制科技公司发展的隐私法案,今天在中国已经引起了警惕和讨论,估计再过两年,就该跟进了。
更新一下,不管怎么说,引起警惕自然是好事情,你看 10 年前我们落后 20 年,现在我们可能只落后 5-10 年(专指这个方面),总体还是进步了。
个人的 “隐私权” 的定义和涵盖范围是怎样的?
隐私权是自然人享有的对其个人的与公共利益无关的个人信息、私人活动和私有领域进行支配的一种人格权。隐私就是私事,个人信息等个人生活领域内的事情不为他人知悉,与公共利益、群体利益无关,禁止他人干涉的纯个人私事。
监控课堂纪律犯法吗?
老师用眼睛盯着大家,以阻止大家瞌睡、交头接耳、玩手机、神游… 犯法或违规么?
没有吧?换成 Ai 自然也不会触犯法律或违规。
即便是天眼系统亦如是。
隐私权有个例外,那就是涉公共利益。譬如系统是用来抓犯人的,符合公共利益要求。
除了学校,那谁可以调取监控呢?警察。
根据《人民警察法》第二十五条 (信息收集查阅和调取) 人民警察因履行职责需要,按照国家有关规定,可以查阅、调取有关公民、法人和其他组织的相关信息,以及对公共场所、道路、网络公共空间通过技术监控方式收集信息。对获取的相关信息应当审慎保管和使用,不得用于与履行职责无关的事项。
检察、纪检那些就不再罗列了。
所以怎样才是侵犯你的隐私?
学校或个人向非相关第三方公布视频监控视频和意见均应视同违法。
Ai 监控并不违法违规,只要学校不非法公布或传播监控内容。
所以咱平头老百姓该怎么看呢?
莘莘学子可以说:我不在这种 “侵犯个人隐私” 的学校读书,再见。
工人阶级可以说:我不在这种 “侵犯个人隐私” 的公司工作,再见。
至于各种想防摸鱼的集体:考虑清楚是 “高压统治” 有利于提高效率,还是 “人文关怀” 更科学,再下决定。
所以真的别该讲法理的时候说情理,该谈美德的时候又讲法律,双标没意思。
旷达这事,已经见怪不怪了。这么些年来,从智慧社区,智慧校园到智慧工厂,大数据给社会带来一次次安全和效率的提升。
当然,这也让我们把习惯和隐私几乎毫无保留地奉献出去。但,就算没有这些玩意,我们的习惯和隐私就得以保存吗?
答案是:NO。
这是一个很可悲的事实。
但这就是事实。
前段时间,李彦宏在中国发展高层论坛上说:中国人更开放,愿用隐私换效率。
我只能表示,我们当然不愿意这样,但你们有给过选择我吗?
我们打开手机,打开随便一个 APP,就会发现:
1、如果你不输入手机号,就用不了。
2、输入手机号则表示同意注册协议。
3、注册协议说明输入手机号则表示公司可以推送各种广告。
4、从本公司泄漏出去的一切信息都不是本公司的有意行为。个别员工的作为本公司不予负责。
5、本公司有权收录本公司有技术实力收录的一切信息。如果你反对,你可以选择不用。
然后我们发现,平时用某些购物 APP 买东西,用某些 APP 购机票,用某些 APP 订酒店的时候,还得特意重新借用他人的电话号码去重新注册一个小号。大家可以去搜一下,不需要其他地方,就在知乎里面搜 “大数据杀熟”(如果还没有各家企业被公关删掉的话)。各路苦主简直比 6400 点入股市,满仓中石油的韭菜还要惨!
然而,这一切可以规避吗?
答曰:不可以,除非你放弃享受现代互联网带来的便利,过着某些人嘴里的 “原始人” 生活。
在这个出门不带一分钱,全靠一部手机走天下的时代,你想你的隐私得以保留,真的是 tan 90°。对了,现在出门给钱连手机都不需要拿出来了,直接扫脸就行了。登陆 APP 也不需要密码,账户了,可以扫脸了。
按照 BAT 三家还有其他一些一线互联网企业的尿性,肯定会以各种理由,一步步把其他登陆方式全部取消,然后让你刷脸登陆。理由呢?还是很简单,“为了你的账户安全”。
而且更重要的是,你的隐私,会四处扩散。
这个年头,哪家企业敢说自己没有被脱裤过?敢说自己企业里面员工没有倒卖客户的资料?
买个房子,给孩子报个班,去趟旅游,你完成以上行为不到三十分钟,立马有人给你打电话,推销产品,这已经见怪不怪了。
更有甚者,我前几天帮别人买本《全国一级建造师执业资格考试用书: 建筑工程管理与实务》,刚下单没几分钟,立刻某培训机构打电话过来,报出我的姓名,所在城市,然后问我要不要报班,还暗示给几万块可以包过一建。
然后我把这事告诉我那位朋友,他对我说,他上次晚上网购个飞机杯,然后没几分钟,就有人给他打电话,加微信发照片,说五百一晚。他因为怕仙人跳没敢去。。。。。。
那么,我们现在还惧怕智慧社区,智慧校园到智慧工厂这些场所把我们收集我们的习惯和隐私吗?
与其担心我们的隐私和习惯泄漏,倒不如不去想这些破事吧。
佛系起来。
让我们相信这个智慧校园可以和智慧社区一样,通过监控所以孩子的行为、心理,从而让他们学习进步,也让校园欺凌和某些龌龊的教师彻底消失。
当然,也只能仅仅这么希望着。
还记得吴谢宇是怎么被抓的吗?
科技向善啊兄弟… 这看着像科技向善吗?
话说读研的时候我们就想或许可以搞一个 AI 专门来反美化… 后来觉得这玩意太过缺德,妹子那么爱美辛辛苦苦 p 了半天图,让你反美化打回原形了….
听说后来还真有人搞了… 不过比起旷视这个,我觉得真的也还可以接受
不然下回谁搞个人脸识别 + 自动人肉信息的 AI 好了,这样可以让这个 AI 看起来善良一点。
这么牛逼咋不拿到常委会去用呢?
原来看过一个日漫
心理测量者(Psycho-Pass)
故事大概讲述了在近未来,所有的监控摄像头都已经被升级和联网到一体,通过监视人类的色相浑浊程度(可以理解为一种算法)和声音、视频等信息用来计算人类的每个心理状态和个性倾向所衡量的值,通称:(即片名:心理测量者 PSYCHO-PASS),它被用作判定人们的思想应有 PSYCHO-PASS 状态、个人精神本身。通过计算这些数值,系统可以自主断定一个人最理想的工作,感情,心理压力,甚至犯罪意图。
因此,为让大众达到 “理想的人生” 这个指标,人们实现这些数值就变得非常积极。然而,有关犯罪的数值,也就是 “犯罪指数” 也会被测量,当然犯罪者亦是如此。因此,人们需要不断地保证自己的指数在正常范围,否则会被系统认为是潜在犯,将会被 “矫正”。
而实际上,整个系统与体系都讽刺的搞笑……
不剧透了,感兴趣的可以看一下
技术无罪?不有的技术就是不应该被发明的
比如埃博拉病毒武器化
这种技术毫无疑问是有罪的
现在可以通过高清摄头分析听课是否认真
明天就可以分析出你的情绪变化
后天就可以结合大数据分析出你的个人倾向
未来就可以掌握你的一切隐私
最后分析系统将取代法院,成为唯一的裁判……
裁判你是否有罪,
或许不用裁判,某些事情,系统曝光出一些见不得人的隐私,或是泄露你的个人信息给犯罪分子,搞乱你的生活,就已经是社会性死亡了
系统可以通过这扶持傀儡政权,毕竟政客不干净的可是太多了,谁支持系统就倾向谁当选,运用媒体和自己掌握的绝对信息优势,操纵整个世界
终极美帝版操纵政治 plus 版本即将到来
拥有比纳粹的煽动力,二战日本的洗脑和史塔西的控制力以及美帝的宣传力还强的限制思想意识
…… 可怕
老大哥在注视着你
看待啥呀看待,没毕业的学生又没有人权,监视监视咋了,这样做家长也开心,老师也好教育,学校也好管理,你见谁家养鸡场不装个摄像头啊。真是的,大惊小怪。
我感觉应该按到火车站,电影院。这样买票就不用排长队了,进了车站,进了影院,自动识别身份,并扫脸支付。真的是一张脸走遍全天下啊。
但是,整容技术这么发达,上有政策下有对策。我如果去整个马云的脸,是不是…
我试着从另一个角度思考一下。
如果学校把买这套系统的钱省下来用于提高教师待遇,为学校吸引更多优秀的教员,对于【提高教学质量】这个 KPI 来说性价比会不会更高?
虽然旷视好像声明说这只是个概念视频(?),但这货让我想到了这个 ctOS:
连界面风格都有几分相似,看来看门狗的时代就在不远?
艺术源于现实,伟人诚不欺我。
====
介绍一下背景:《看门狗》是育碧制作的一款游戏,背景设在芝加哥。芝加哥所有的城市设施、市民生活全部由一款叫做 ctOS 的操作系统管理,包括他们的银行账户、手机通话、个人信息等等。无处不在的监控能够识别每个人、监视他们的动作,市民却不以为意。主角希望借助黑客组织 DedSec 的力量,让市民重新清醒起来。
不知道这个时候有多少人会说技术无罪了
“中国人对隐私问题的态度更开放,也相对来说没那么敏感。如果他们可以用隐私换取便利、安全或者效率。在很多情况下,他们就愿意这么做。当然我们也要遵循一些原则,如果这个数据能让用户受益,他们又愿意给我们用,我们就会去使用它的。我想这就是我们能做什么和不能做什么的基本标准。”——李彦宏,百度董事长兼 CEO
反正好多家长都会支持,学生的权益谁又在乎呢?
先放下隐私法律法规什么的大道理不谈,这个板子看似朝着学生挥过去,但真落下的时候很可能会打到老师的屁股上,捎带着也会把学校拖下水,但凡脑子里还有点脑浆的学校领导都不应该主动把这种东西放进学校里。
对于任何一个负责人来说,身上背着的量化指标肯定是越少越好,本来对于学校来说唯一的量化指标只有升学率,搞这么套东西之后这玩意儿会多搞出一堆似是而非的量化指标,学校领导装这种东西不是给自己脑袋上套紧箍咒吗?万一这玩意儿算出的量化指标和升学率是相反的你该如何是好?校长们真的愿意拿自己的仕途开这种玩笑?
这件事首先信息太少。
这个产品功能是什么?都能统计哪些数据?用作何用?价格?是展示 demo?是初中?是补习班?等等很多问题都不清楚,单凭一张图,暂时无法去认真评论。
如果不是学校使用,假如是个培训机构,通过数据统计来为老师打分,制定教学计划,那人们的接受度显然要高很多。而且其实已经有些培训机构在引入这些技术了,监视是否有大面积睡觉,打闹,甚至课间打架,等等。
说说感性认知吧:
如果真如这张图所展示,单纯地用这种方式监控学生。我觉得是学校(或者教育局?厅?)问题很大。相当大一部分当老师的人,总给我一种生活在时间胶囊里的感觉,见到今天的他们和我当年的小学 / 初中老师没有多大区别。他们几十年不变的思维,像停滞于刚参加工作时的样子。
这次虽然学校使用了创新的技术,但本质仍然做着他们几十年来梦想的事情 – 对学生极大的控制欲。就像当年考试背书,连个对于最终目标无关紧要的、所有人都知道没有意义的内容,仍然连个标点都不能错。
想法从根源上就有问题,成年人是人,孩子就不是人了吗?老师人类能力范围以内的监视,和利用机器之后的超人能力监视,两者能是一样的吗?
浅薄的教育观带来的恶的产品。
问:老师用肉眼监视要达到的目的是什么?
答:控制课堂整体上的专注,提醒个别学生,用杀鸡儆猴的方式来扩散影响。
注:反馈是即时的,整个过程是符合人类社会互动形式的。整个过程是有教益的。
问:用肉眼监视并提醒,行为的主体是谁?
答:是人
问:这整个过程对孩子意味着什么?
答:孩子知道监视的是老师,他是在和人类打交道,他的感情,思想,情绪都能通过正常的渠道化解,因为这整个过程都是人类的社会活动,所以,整个过程是有教益的。
问:换言之反过来,机器监视的目的是什么?
答:以最高效率获取情报,分析统计结果,这是一个机械的目的。
注:就算有即时反馈,因为统计还在继续,教师收到信息提醒也懒得纠正,因为反正机器不会遗忘,过后看结果报告就可以了。整个方式和过程都是非人类的,机械的,没有教益的,也和人类社会行为模式没有交集。(如果整个社会的人都已机器对待目标的方式对待别人,那这个社会估计离完蛋不远了)
问:机器监视主体是谁?
答:机器
问:监视完结果报告被用来评价一个人的好坏,这过程对孩子意味着什么?
答:参考前苏联克格勃对民众的监视,对被监视的人意为着什么。
这个问题之复杂,只用
“机器监视功能 = 教师用肉眼监视功能”
的观点是没有说服力的。这么说的人,不是蠢就是坏。各种概念偷换,刻意忽视细节。
只从业务角度分析。光看这张图,有 6 个关键指标:睡觉、玩手机、趴桌子,听讲、阅读、举手。3 个负面 3 个正面。通过六个行为特征指标的统计,进行初步的学生课堂表现画像。
首先我们分析这些数据的作用:
所以我们发现:目前的系统如果真正要使用起来,能对教学有所帮助,还需要大量的辅助数据,这些数据的录入、维护都需要教师付出大量额外工作。那如果一个理想的系统,能够真正实现辅助数据的自动录入与更新,自动备课、流程化课堂教学、横纵向数据对比分析能力。。。实在难以想象这套系统的开发成本和性价比。从目前简陋的起点到理想状态,有很长一段时间,将是数据结果不具说服力,信息化工作给教师帮助有限,增加额外教师成本。就看领导自己的期望是否能一直大于舆论压力。
当然我们可以换种思路:不做得那么智能,抓住关键数据指标,定期请咨询人员结合学校教研教学进行人肉分析。那这种模式的问题是什么?1. 人,懂学校教研和数据分析,并对业务非常熟悉能提供有效建议的人才,很少;2. 资金,教育信息化的噱头下,政府愿意投入到软硬件的开发,但咨询业务这种纯靠人力成本的工作,很难评估成本,也很难有 “看上去沉甸甸” 的产出。
所以瓶颈就有了:短期内收不抵支、性价比低,长期看过于虚幻。综合来看,如果没有这波信息化的政策推动,市场太小,风险太高。估计旷视也是指着教育领域捞一笔,然后在其他方面尝试商业化盈利模式。
应该把这个监控先装到旷视总部
有一部动漫 psycho pass。本质上,我觉得这种监控系统可以视作实现心里测量功能的技术基础。至于是好是坏,各位看官自行判断吧
钉钉以后又一中国特色产品,阿里不考虑收购吗
这些技术为什么不用在幼儿园,为什么幼儿园虐童事件常有发生?
为什么不用这套系统数猪去呢
我真的无法想象什么样的人会恶毒到出这种馊主意来赚钱。
怎么的?开发者没上过小学初中高中?没开过小差没睡过觉没看过小画书?大学没逃过课没玩过手机没谈过恋爱?因为自己毕业了就无所谓了可以用 “技术无罪” 视奸别人的生活了?
难不成开发者都是逗 M 喜欢被班主任趴在后门盯着看?
想想这个技术还是挺可怕的,第一秒和我初恋女友在学校的某个角落里脸红心跳的完成我的初吻,下一秒校长就在系统里收到早恋警报然后被叫去谈话开除?
想出监视孩子这个点子的人,非蠢即坏,蠢的概率不大,毕竟能开发出来这么一个高科技产品。所以,这些人是真的坏!
为了自己的利益可以为所欲为,这下能监控没有什么反抗能力的孩子们,下一次是不是要监控办公室里每一个人?
开发这套系统的所有人从程序员到财务到 HR 到经理到老总是不是人人工位上应该也来一个监控?分析你刷手机喝茶上厕所和同事聊天的时间?通过你微表情判断你工作认不认真?还顺便和薪水系统挂钩?每天上厕所超过三次扣全勤奖?玩手机超过十分钟算旷工?
什么?你说办公室监控没有人权?那孩子有没有人权?还是你根本没把他们当人?
留学广告 + 移民广告。
同学们慷慨激昂怒斥监视侵犯隐私的同时。
学生家长默默地点了赞表示支持
只要能预防和杜绝校园霸凌,我 100%支持
欢迎参加某某科技最新产品发布会!今天我们将会给大家带来我们研发的最新产品——千里眼!
管控员工效率一直是企业管理者的老大难问题,通过我们的千里眼产品,在每个工位的电脑安装智能摄像头,通过人工智能技术监控员工工作状态,工作效率。
同时,电脑内部也配备有监控软件,通过先进的识别技术,监控员工有没有上班时间刷微博,有没有在 QQ 上聊天等非工作行为。
当员工分心时间过长时,软件会自动在办公室内播放广播提醒员工,如广播:「张三刷微博已有 15 分钟,请专心工作」
针对现有 996 工作制下部分员工恶意偷鸡摸鱼,我们的系统同样可以检测到员工离开座位时间,回到座位时间,在座位上喝水、玩手机时间,让管理者一目了然。
每月只需要开通 500 元的白银会员,员工摄像头实况直接联通企业管理者电脑,每个员工工作状态更加清晰。
每月 1500 元开通黄金会员,除白银会员特权外,外加 HR 小助手,根据身份证号或者人面识别,面试的每一个员工,在前公司的工作效率、加班时间,一概清楚。
每月 2500 元开通铂金会员,除黄金会员特权外,企业管理者可查看员工于前公司所有的摄像头监控记录及屏幕监控记录。
本次发布会上购买,免费获得 3 个月铂金会员使用权。机不可失,失不再来,还不赶快买买买???
相信我,这么搞会出现一堆监控数据很完美但是成绩依旧不行的学生,到时候想找问题都不知道哪里找去。
当然大部分人也会对此情况很满意,因为懒,就想当懒狗。现在给你一堆指标说做到了就等于好好学习了,考不好也没关系。于是:
学霸无所谓,反正成绩硬杠杠在这里,随便怎么搞也不会搞他们;学渣更高兴,把数据做漂亮了就等于为考不好找免死金牌了。
想想某些公司的 kpi 系统,每个员工 kpi 多做得很好,但是这公司就是越来越不行。
这家公司叫百度。
穿孔纸带有没有自己的良知,人类有
有些农史器指的教师爷总想着 24 小时高强度监视学生,我觉莫着他们多多少少沾点特殊性癖,您觉得呢?
这样不好
要不然大家最后都发现上课溜号的学生考得最好 大家还怎么骗自己相信人人平等啊
用 AI 把人训练成机器人,中国特色的 AI 发展方向。
机器人上的 AI 在哪?
我觉得用这种技术教育出来的孩子,恐怕会成为人工智障。
有的高中就在每个教室装了完善的视频监控系统, 老师可以随便找哪个教室的摄像头转, 想看哪个学生看哪个学生, 甚至画面可以放大到看清学生卷子上的字.
本质上有什么区别? 老师有权利自己监督学生的表现, 就有权利借助工具分析学生的表现. 做一个思想实验, 这相当于有了一个眼神超好脑子超快的老师在讲课, 能看清学生的一举一动.
我不认为旷视这个技术和近视的老师戴眼镜上课有本质上的不同.
换一个说法, 这个人工智能的监视设备, 其效果再好, 不会好于和学生数目相等的教师观察学生的表现. 现行的法律法规, 似乎没有禁止教师一对一的监督监视学生的表现 (这不就是有些一对一家教干的活?), 那么放到一个六十人的班级, 这个监视设备, 和六十个老师每人盯一个学生, 没有本质不同, 只是节省了一些人力而已.
按我的想法, 目前在教室里安装监控摄像头是合法合规的, 一对一地监视学生表现是合法合规的 (不合法合规, 至少也被默许大规模存在), 那么用随便什么程序分析一下监控数据, 哪里不对劲呢? 除非你能说明在教室里安装监控是不合理不合法不符合教育规律的, 否则就说明不了旷视的产品不合理不合法不符合教育规律. 不知道这个想法哪里不对劲.
这则声明中,关键词是 “安全”。而最具争议的讨论点之一,也恰恰是 “安全”。
要解决孩子的人身安全, 需要我们去分析他睡了多少次觉,举了多少次手以及瞟了同桌多少眼的问题吗?或者反过来说,这些强加的条条框框,是否能够有效解决校园霸凌?
再或者说,我们知道这个孩子或许有几个表现不达标,那么我们有没有准备好对症下药的解决方法?即便作为一名老师可能很了解一个孩子上课有不听讲的毛病,但是对于改变他的毛病却通常无能为力。
我们的关注点从谈及 “安全” 的一开始,就已经本末倒置了。
技术本没有任何错误,根本在于我们的命运掌握在有权使用技术的人手里。
知乎形成了一个习惯,搬出一个话题后,一帮人都在抖机灵。
(PS:2019 年 8 月 25 日, 旷视科技向港交所递交了 IPO 招股书。这个节骨眼出现这个新闻,有点意思。)
旷视整个教育线的产品演示以及应用场景的方案我都看过,该公司也给我演示过并且讲解了他们开发整个产品线所想要达到的目的,或者说 “卖点” 是什么。
所以,那个监控学生上课的画面,老实说,只是 demo,目前还达不到那么 “AI”,同时也不是什么新产品,大家大惊小怪了。或者说,这个 demo 更多是给学校相关负责人看的“设想”,反正我在实际产品运作上并没有看到这个“设想” 达到这种精准程度,只有所谓的 6 种行为分析和 7 种表情识别,并且的确呈现出来的最终效果也有点差距。
同时这也只是他们教育产品线其中一部分,即 “课堂行为分析”,这种分析是给老师或者学校领导看的,而且其他竟品也有这种类似的模块,延伸下去就是所谓学生的整个校园生活的大数据分析,这种在目前所谓的“智慧校园” 里面,并不算什么新鲜事,就是摄像头 + 后台数据分析系统。并且应用的场景更多是在会议签到、宿舍管理、无感考勤、智慧安防、刷脸支付等等。
如果硬要说这样做就是监视学生上课,那么目前教育这块,这种类似产品更是五花八门了,比如说校园里面随处可见的监控摄像头,即可以作为安防的一部分,也可以作为学生行为监测部分。还有校园卡,目前能够后台记录学生的消费行为习惯或者校园生活轨迹。包括目前流行起来的宿舍刷脸进出系统,也需要将学生人像事先录入系统的。
有些学校的所谓校园 APP,其实后台记录了他们的使用频率和使用习惯,甚至可以推送相关需求。另外大部分的 “智能产品”,只要具有蓝牙、红外、网络等功能,都可以进行监测,就连你上网看了什么,在哪些网页停留了多久,平常打开微信、支付宝、淘宝…..,都是可以监视的。
你说这些作恶吗?就要看这些收集后应用于哪方面了。
只能说,有些东西搬上了台面,有些东西藏在了桌底。隐私权这个话题,你看 facebook 还不是罚了 50 亿美元就完事。
【上班还敢玩手机、投简历?老板通过新工具全能监视到】换个角度看旷视。
不只是电子邮件监视。用人单位正在对员工产生的数据进行挖掘,以便知晓他们在做什么,以及与谁在做。而对此,你几乎无能为力。
你的公司也许远比你想象的更了解你。
你开会时说话的语气,你离开办公桌的频率,你回覆邮件的速度,你在办公室里的行动踪迹,以及你的电脑屏幕上有些什么。所有这些,你的公司全都知道。
如今在美国,在一家大型企业工作通常意味着成为一台员工数据生成器——从早上躺在床上发出的第一封邮件,到吃午餐时连接的 Wi-Fi 热点,再到下班回家前新增加的业务联系人信息,一切尽在掌握。雇主们通过分析这些数据,来了解哪些员工具备影响力,哪些团队工作效率最高,以及哪些人有可能跳槽。
美国法律对于企业监督员工的行为约束甚少,而企业也未必会告诉员工它们在收集哪些方面的数据。医药批发企业 McKesson Corp. 的高层曾想了解为何某些团队的人员流动率要更高,于是去年,它与一家主营人力数据分析的创业公司 TrustSphere 合作,分析了其全美逾两万名员工产生的逾 1.3 亿封邮件,着重分析了这些邮件的发件人、收件人信息以及收发时间(邮件内容不在分析范围之内),希望从中掌握员工的关系网络。
TrustSphere 发现,人员流动率较低的团队通常会和公司内部各个层级的人员建立多元联系网,同时也会与外部保持联系;相反,流动率较高的团队则与公司外部的联系更紧密,而与公司内部平级和下级同事的联系较弱。McKesson 公司称,出于对员工隐私的尊重,公司只研究了员工团队的数据,而没有将员工个人列为调查对象。公司还称,由于它们并未调查邮件内容,因此当时没有向员工公开数据分析的结果。
McKesson 负责人力资源规划和数据分析的副总裁 R.J.Milnor 说:“这项调查的好处是能让我们提炼信息,从而提升团队表现 。”
对于分析结果,McKesson 尚未决定采取何种应对举措,但它已在考虑一项方案,试图让办公空间更为开放,希望以此促进员工之间的交流与探讨。此外,该公司也在积极探索如何根据员工之间的关系模式,来预测哪些团队可能面临人员流失。
企业用于收集和分析数据的来源,不止是电子邮件。如今,很多公司都越发积极地筛查员工的短信和语音聊天软件 Slack 上的聊天记录,有时甚至会对员工的手机通话录音,并将其转录成文字。
微软通过自主研发的 **Office 365 软件,收集员工和客户聊天频率、电子邮件以及会面情况的相关数据,以此考量员工的工作效率、管理效率以及工作和生活之间的平衡度。**微软负责员工数据分析的总经理 Natalie McCullough 指出,通过追踪员工的电子邮件、聊天记录以及日程安排,公司可以了解这些平均每周工作 20 小时的员工是如何分配时间的。微软只允许管理人员查看五人及以上大团队的相关数据。
今年早些时候,微软销售团队的每个成员都收到了自己的数据分析表,上面记录着他们每天的日程安排——这些信息经理们无法获取。员工可以根据这份分析表,调整自己建立人脉的方式,同时将更多时间花在客户身上,而非用来开会。
**微软还把这类员工数据分析软件卖给了其他企业,梅西百货便是其中之一。**梅西百货通过这款软件,追踪员工收发邮件的时间以及在工作时间之外登录公司内网的时长,据此判断员工保持工作与生活平衡的情况如何。抵押贷款巨头房地美 (Freddie Mac) 则利用微软开发的软件来评估员工会议的时长,以此判断某些会议是否过于冗长。
这些**监控员工的科技手段倒是有不少支持者,**他们认为,收集到的信息可以帮助企业优化资源分配,更早地注意到问题员工,同时也能发掘业务骨干;而批评者则认为,这种快速兴起的监控工具可能过于 “一刀切”,不一定能得出公平公正的判断。
人力资源研究及咨询公司 RedThread Research 的联合创始人 Stacia Garr 表示:“一方面这确实符合法律,另一方面,你需要维持与员工之间的信任关系,这两者未必永远都是一回事。” 该公司为企业提供人力资源领域的调查和咨询服务。
41 岁的用户体验设计师和研究员 Diana Hubbard 家住德克萨斯州沃斯堡,她从来不会在办公设备上谈及与个人生活有关的任何事情,甚至不会用它们在线预订晚餐座位。除了公司配备的手机和电脑之外,她自己备有一部智能手机,还有两台笔记本电脑——其中一台专门用来打游戏。赫巴德在异地工作时,有时会携带两部手机、两台电脑,藉此避免将私人手机连接到公司的任何无线网络上,否则,她会通过构建 VPN 网络来规避这一风险。
赫巴德称,她避免将任何个人资料发布到网上。她表示:“我并不是什么阴谋论者,但个人资料是非常宝贵的信息,无论是谁想要获取或是查阅我的个人信息,我都不想把它们免费送人。我之所以这么做,就是出于这个原因。这是我的东西,属于我自己。”
这些年来,一些企业纷纷要求员工签署技术相关协议,协议中明确规定,任何在公司配备的手机或电脑上收发的数据,其所有权都属于公司。劳务方面的律师表示,美国的企业雇主可以合法获取员工在办公地点内以及在使用工作设备时产生的任何信息和知识产权。
如今的企业越来越善于分析收集而来的员工数据,一个最新的领域便是分析员工之间的电话交流以及开会时的言论。有些时候,公司可以通过语气分析,来判断一个团队内部是否出现了文化隔阂,还能了解到哪些人在主导对话,哪些人提出了异议,以及哪些人在采取行动,不让会议陷入情绪化的讨论。
连锁健身房运营商 Life Time 正在使用成立仅两年的 Ambit Analytics 公司开发的一套语言处理软件,用以评估新招聘的健身房经理是否有能力解决小团队内部出现的问题。Life Time 在试用这套软件时,获取了员工彼此之间的谈话时长,并对他们的谈话内容和音量进行了评分。
试用过程中,五至八名不等的参与者以及一名团队创建人会在他们的手机上下载一款应用,然后按下按钮,开始录音。他们通常会被给定一个假设的问题,需要他们加以解决。Life Time 教育业务副总裁 David Pettrone Swalve 称,随后,Life Time 会向新员工提供建议,告诉他们 需要应用哪些技巧,不管是学会更好地倾听,还是更多的时候学会将心中所想表达出来。他还指出,相比起从其他人那里获得的反馈,有些人更愿意接受依靠数据获得的反馈,因为前者也许充满了主观性。
斯瓦夫表示:“黑镜时代已经到来。” 这部 Netflix 出品的高人气未来题材电视剧中,就有类似的场景。
位于印度钦奈的软件制作商 Ramco Systems **通过邮件来破译员工内部及客户关系模式,**以此降低了培训各地销售团队新成员所需的时间——从新泽西州普林斯顿到新加坡,Ramco 的分支机构遍布全球。举例来说,如果一名销售主管离职,Ramco 可以迅速掌握与该主管关系最紧密的 50 名客户,并将这些客户关系转交给接替他 / 她的新主管。Ramco 表示,通过这种方式,可以让新入职的员工迅速适应工作,所需时间从以前的五个月缩短至几周。
Ramco 还借助 TrustSphere 的技术来分析员工在电子设备上的信息交流。TrustSphere 首席执行官 Manish Goel 指出,他的公司不会查看员工邮件的内容或是聊天记录,但仍然可以识别一家企业内部具有影响力的员工,方法就是通过分析哪些人的信息得到回覆的速度更快,以及哪些员工与公司上下的同事建立了紧密且持久的关系。Goel 认为,在尊重员工隐私的前提下,用道德、透明的方式获取数据,并从中筛选出有价值的信息,是完全有可能的。
一些企业高管和研究人员提醒称,目前在公司内部运用的人工智能以及自然语言处理技术仍有待完善,企业雇主获取的信息并不能全面反映员工的实际工作情况或人际关系。尽管判断高兴还是生气相对简单,但要检测更加细微的情绪,难度依然不小。
**对于员工数据分析的需求催生了数十家创业公司,**Bunch.ai 就是其中之一。这家公司根据员工在聊天软件 Slack 上的说话语气,来判断团队之间的化学反应和士气高低。Bunch.ai 不愿公开客户身份。Teramind 公司全球运营副总裁 Eli Sutton 称,目前已有逾两千家企业在使用该公司的监控技术,这些企业覆盖各行各业,包括医疗、能源、法律、汽车制造等领域,甚至还有政府部门。许多客户都希望借助 Teramind 的技术,确保文件资料和知识产权不会落入竞争者手中。Teramind 总部位于佛罗里达州阿文图拉。
Teramind 利用一整套软件,不仅可以实时监测员工的电脑屏幕、捕捉他们在键盘上的实时操作,还可以将员工的工作情况拍成视频,并详细分析他们在一天中都做了些什么。一些企业则选择建立预警系统,在某个员工打开特定文件并试图打印时,该软件会阻止这一行动,并迅速通知管理员。不仅如此,Teramind 还可以根据员工的某些行为,例如查看 Fackbook 页面等,来判断员工的工作效率。
Sutton 指出,这项技术让企业看到了员工真实的工作方式,而大多数客户会事先通知员工,他们可能会被监控。一部分公司也会利用 Teramind 的技术,对其它地区的员工进行远程监控。Teramind 拒绝公开客户名单。
还有一些公司则在不断试探员工隐私意识的底线。麻省理工学院科学家 Ben Waber 是波士顿创业公司 Humanyze 的联合创始人,他带领该校的一群研究人员对一款装有麦克风的徽章进行了测试。这种徽章可以录下员工说话的声音,并感应其压力水平的变化。一家位于美国的财富 500 强银行以及数家日本企业试用了这一技术。(在日本,工作压力引发的自杀已成为一个难以忽略的问题。)Waber 指出,这些徽章的作用虽然很难量化,但事实证明它们是有效的。
Waber 表示,“你的雇主掌握着你的饭碗,如果他们说‘把这个数据给我’,你很难拒绝。”
在上述研究项目中,佩戴了这款录音徽章的员工都签署了协议,同意参与测试,他们也都知道自己受到了监控。
Humanyze 后来将重点放到了蓝牙徽章上,这种徽章可以追踪员工在整个办公室的活动情况,并最终获得了成功。他们将收集到的员工活动情况和员工收发邮件的频率数据结合起来,帮助企业衡量员工协作度和工作效率。Humanyze 不愿透露客户身份。瓦伯尔表示,对于员工监控和数据收集,美国仍然需要制定更加明确的监管法规。
通讯服务提供商 8x8 的高管表示,他们能够确切地知道员工每天早上何时开始在公司配备的移动设备上办公,他们何时放下手头的工作去吃午餐,以及晚上什么时候发出最后一条聊天信息或电子邮件。8x8 的客户包括出版集团康泰纳仕 (Condé Nast),后者使用其技术分析员工手机通话及固话通话的次数;此外还有阿兹海默症协会 (Alzheimer’s Association),他们利用该技术研究病人及看护人通话时的语气。
8x8 的高管表示,其职场分析服务可以帮助企业评估员工表现,还可以通过转录通话记录等沟通信息,在员工离职的情况下保护公司的知识产权。
8x8 首席产品官德扬 · 德克利奇 (Dejan Deklich) 称:“如果不这么做,你怎么知道他们有没有使用不当措辞?有没有说过什么蠢话?”
拉兹罗 · 伯克 (Laszlo Bock) 在 Alphabet 旗下的谷歌公司任职期间,参与提出了 “人力分析” 这一概念。他提醒说,如果企业密切监控员工的一言一行,可能会让员工感觉不适。如今,伯克在一家名为 Humu 的员工调查公司担任 CEO。
伯克说:“要想知道如何提升员工的工作效率,你不需要把每一个员工都连接到一台核磁共振仪上。”
-——————————————————————-
如何在办公场合尽量保护你的个人隐私
如果你不想在工作场合泄露个人隐私,你应该怎么做?
隐私专家给出了下面几条建议:
1. 备置用于不同场合的多部设备。工作时,只使用公司发的电脑和手机,再准备另一台电脑和手机,用于个人用途。
**2. 避免将你的私人电子设备连接到公司的 Wi-Fi 网络。**位于华盛顿特区的非营利组织电子信息隐私中心 (Electronic Privacy Information Center) 的执行董事马克 · 罗滕伯格 (Marc Rotenberg) 称:“企业会定期记录网络活动以保护自身的商业利益,并且大多数政策都明确规定,公司设备上产生的信息不属于个人隐私。”
**3. 在简历上填写个人信息时要谨慎。**隐私问题顾问迈克尔 · 巴塞尔 (Michael Bazzell) 告诉他的客户,求职者在应聘过程中分享的任何一条个人信息,都有可能因为某次数据泄露事件而被公开。他建议人们不要使用自己的手机号码,而是用 Google Voice 或者网络电话;此外,在填写地址的时候使用一个商业地址,比如某家 UPS 门店。
**4. 使用 USB 数据隔离器。**这种设备外观和 U 盘类似,可以插在手机和连接线 / 连接器之间,保护你手机里的信息不被泄漏至公共充电站、租用车或者公司电脑上。
**5. 避免透露信息。**不要在类似 Facebook 和 Twitter 的社交媒体上透露你的私人生活信息,它们也许会被你的雇主或是你正在求职的公司采集,进而从中提取出有可能对你不利的信息。
简单,说自己感冒了,带着口罩上课。
技术是中立的,但是产品不是(比如计算机视觉,比如火药)
旷视这个产品的功能侧重于识别 “学生听课与偷懒的行为”
那么,什么是不那么 “邪恶” 的产品呢?比如,产品的功能侧重于识别“学生是否健康成长”
接下来的问题,是如何看待 “机器获取学生数据” 这件事。
从长远来看,世界网游化 / 数据化是一个必然趋势,互联网和手机只是第一步,每个人或多或少都与数字孪生的世界连接着。监控可以帮忙找到走失的人、及时救助伤病的人、预防各种灾害,也可以让人们成为没有自由的棋子。
以知乎的尿性,我这个答案很可能被删除,不过我还是要发。
我就想知道,
一个学生听了老师的讲解,头朝上思考,类似发呆一下
眼神空洞,面无表情盯着前方,机械记着笔记
哪一种更有效率??
估计引进这套东西的是完全不懂教育学的官员,我甚至怀疑提出引进这套系统的人在高中阶段是个听话的差生
“科学不许诺人们幸福和自由,更不关心人如果面对不了残酷冰冷的现实怎么办”—《乌合之众》
“不要被自己更希望相信的和别人相信了就会对社会更有益的事情所影响,要实事求是。”—罗素
追求内心的宁静希望不就是呆在舒适区里不肯出来吗?人如果不接触世间的尖锐就会愚蠢呆滞而且非常自恋。
作为一个教育行业的从业者。
其一、教育这东西,一靠教师作为,二靠家长配合,三靠学生自觉。
教师和家长是主导,所谓的自觉都是在正确的导向下养成的良好习惯。
你拿出来的数据再详细,再科学。教师不作为,就等于 0,学生不理会,也等于 0。
就好比有的学生,你尽管拍,你尽管骂,我要是听了一句算我输。
其二、教育的一个重要的组成部分就是反馈,我请问,你拿出来这个数据,怎么反馈?给谁反馈?
在课堂上即时反馈,不可能做到。
延时反馈,课后作业或者一次小测能反馈的东西太多了,我为什么要费时费力分析你所谓的课堂数据。你这连鸡肋都算不上。
再说反馈给谁的问题:反馈给教师,鸡肋。教师虽说精力有限,不可能注意到每一位学生,但是一个有一年教学经验的教师已经完全具有对自己的课堂的把控能力。监控的这些数据最多也就是课后辅助分析,还是那句话,作业和小测能反馈的东西比你这多得多。
反馈给学生,除非即时反馈,不然没有意义。但是即时反馈又会引起注意力分散。得不偿失。
反馈给家长,这些数据确实可以让家长了解下孩子在学校的表现情况,而且比作业和成绩来的更有说服力。作业和成绩小孩们都能造假,课堂表现可造不了假。
综上,这东西用来应付家长用处最大。其他的嘛,鸡肋都算不上。
而且,我觉得这东西就是互联网 + 产能过剩的产物。没多大意思,也解决不了什么实际问题。
我只想说一句话。
你凭什么监控我?
你有什么资格监控我?
旷视是阿里巴巴投资的,对比马斯克的 OpenAI 下棋打电竞比赛,现在看懂马云跟马斯克鸡同鸭讲了吧?
作为一个创始者的角度考虑,他格局并不大
我更关心的是,人类既然发明这种更参透更让人 “恐惧” 的科技,那那些躲过监控躲过法律的不法分子,他们会变得更聪明更有办法去偷窃,强奸
老鼠的速度是猫训练出来的
如果致力于世界角度的安全那么这世界会更公平,财富,自由,地位分化会更严重,可是更文明,表面的和谐
当然这种技术往大了讲还是不能统治世界
但我依然担心那些技术的漏网之鱼的魔鬼心态,这将使被碰上的无辜者更可怜
只是放在学校里试验,想学习的学生总有办法学好,不想学习的学生总有办法学不好,我认为中国的教育应该更加开明,如果确定一个孩子,他的天赋不是学习,那么他学习也没有用,就像很多成功的企业家,他们并不是一个高材生而已
开发这种技术,也就是一个噱头。不应该只放在学校的角度里
如果可以致力于安全,个人安全以及世界安全,那么,它算是成长了
但安全本是制衡,收集数据,保存数据,本就是繁琐的过程
我认为一个聪明的,有手段的校长,不会靠这个就能登上教育局长业绩好的宝座
一个厉害的班主任不会因为这个就能让全班成绩保持级部第一
一个学生不会因为这个就能当上级部第一
谁在这个技术里真的变好了呢?
资本家
他们圈完钱,就可以用钱去套别的钱
他们是笑得最快乐的
他们看着买入这个技术的学校,私企,商场变成附庸。还期待更多买入
我曾经也笑得最快乐,但良知干扰
人工智能发展历史里,我作为被宰被坑被害甚至被杀的一员又能怎样。众生皆苦。很多时候,活着已经够累的。你阻止不了甚至还没意识到人类变好变坏就成为了凝固的历史的一粒色素。
Just dont fxxking tell so many stories about the big panic.
连什么是保护的分不清的公司,
你能指望他保护你的什么隐私?
智商正常的都知道你这是在监控学生,那么问题来了,既然合情合理合法,你为什么不敢说?
怕是自己心里比谁都清楚在做什么吧。
谁说文科生跟不上配套?福柯在《规训与惩罚》不是已经预言过了吗?这不就是福柯讲过的全景敞视主义的再现吗?福柯已经论述过在现代社会中权力是如何通过这种监视的手段完成对人类的规训的。而且这种权力渗透不仅在政治方面,还包括医院、工厂,乃至学校。这种规训的后果就是人们会变得畏手畏脚,开始自我审查。
都 21 世纪了,都读大学了,还搞什么文科生理科生的对立,真是太愚蠢了。
如果哪一天人们进化出了出生就是满级演员,行为表情骗过大量 AI 和别人的眼睛,那时候就是人们互信和社会崩溃的时候。
这东西稍作修改就可以用在程序员自己身上吧…100% 精神集中度的 996,想想就刺激啊
可以说如果未来立法或者政策端不对这种应用做限制的话所有非创造性的岗位都可以劝退了,各个行业的基层人员的工作环境会恶劣到连畜牲都不如,这个应用的恶毒程度堪称冠绝古今,堪比当代半夜鸡叫,加上钉钉,马云可以说是当代黄世仁了
如果我对国内应试教育的认知没有落伍的话,这种监管对中学生是没用的。中高考指挥棒下考得好是可以为所欲为的。考核学生一节课举手多少次有意义吗?我举一百次你给我发清华入学通知?精细化监管的土壤是分工。工厂里的工人只负担生产流程的一环,故而无法通过最终产量来衡量员工的贡献,所以才会想方设法监管工人投入生产的时间。而学习 - 考试是独立作业,终末成绩足以提供 清晰的学习能力画像,除非以后高考改成团体赛,否则这个监管无必要,最终形同虚设。聪明的学校倒是可以用这些数据作一些关于课堂行为与最终成绩关联度的研究。
那如果这个技术被用来监管员工该如何看呢。大数据以及统计学本身就是一项管理技术,运用于生产活动中偏向管理层是无可避免的,这不是反人性。但管理本身也是生产的一环,做到三点,员工也能从更高的生产效率中受益。一是管理层分享更多的收益给其他员工,这是最重要的。二是管理层本身也置于监管之中,不涉及隐私的数据对全司公开,涉及隐私的数据没有特殊授权谁都不能看。三是管理层提供其所跟踪的指标与生产效率以及安全性之间的相关性论证,做不到的就有歧视嫌疑。督促管理层做到这三点的应该是工会的责任。
我看到的问题是:如何看待旷视科技新产品监视学生上课?
我有点怀疑这是商汤、依图或云从的人提的问题。真不是来黑旷视的吗?
这个答案讨论两个问题:1、这个产品是否违反道德;2、这个产品是否有意义。
第一个问题:这个产品是否违反道德?
先说结论,所谓的 “监视”,目前来看不违反,更绝对地说,旷视的技术不违反。但是借助这个产品采集样本的行为,目前处于灰色地带,不好说。
这个问题最让我绝对奇怪的地方就是,“监视” 这个行为和旷视有什么关系?
第 1 点:摄像头是校方决定安装的。
用王建国的脱口秀中那句话说:武功本身没有错,错的是习武之人。
就算在教室安装摄像头是违反道德的,那也怪不到做摄像头的人身上,用摄像头的人才是罪魁祸首。针孔摄像头广泛用于偷拍,但还没见过针孔摄像头厂商承担法律责任的,都是偷拍者违法。
何况,教室是公共场所,装摄像头监控合理合法,只要的使用者没有将视频用于商业用途、违法用途,那就没有问题。
比如两个人在教室里发生性关系,被教室里的第三个人拍摄下来了,算偷拍吗?不算,只要别散播就不违法。
第 2 点:“监视” 行为与人工智能技术没有多少联系。
现有的一些高赞回答普遍搞错了讨论对象,都在讨论旷视的 “表情识别”。
那么请问,如果仅仅是安装了一个摄像头,并没有表情识别功能,而是雇一个人在监控室肉眼监视走神的学生,和这个产品相比有什么区别吗?
要知道,对于人脸领域的所有任务,“人工”的识别精度永远高于 “人工智能” 的识别精度。
用算法识别表情和雇人识别表情仅有的区别就是成本不一样,以及识别精度不一样。
归根结底,“监视” 的行为来自摄像头,而摄像头这东西早八辈子就有了。十几年前我上大学的时候,学校的很多大阶梯教室就安装了摄像头。
所以,某个高赞的答主,自我介绍为 “高级产品经理” 的那位,我有点怀疑您这个产品经理的专业能力了。
人工智能的技术并不是 “监视” 的原因,您的回答只是用 “人工智能” 这个噱头来耸人听闻。
学校真要惩罚走神的学生,那么雇个人翻监控视频更准,肉眼识别交头接耳的能力可比人工智能算法强多了。
监控工人的产品,早就有了,不过是为了计件。某些手工业劳动的工厂,用人工智能算法计算工人完成的工件数。
至于工作时开小差,走神之类的事情,早在摄像头被发明出来之前,工厂就有了监工,办公室就有主管。主管并非不知道你开小差,只是法律不支持他借此开除你。
所以,保护工人权益的方法是从法律、规定、工会组织等方面下手的,警惕人工智能并没有用。您作为 “高级产品经理”,就别用科幻片观众的思维方式了。
只要规则有空子,资本家就会尽可能压榨工人,和有没有人工智能没半毛钱关系。
今天互联网公司的 996 制度,也不是因为人工智能监视着员工导致员工不敢提前下班,而是人和制度的原因。
再说远一点。
记得郭德纲的藏秘排油风波吗?郭德纲当时说过一句话:既然这个产品不合规,为什么工商局让他卖呢?
一个产品不合格,从全国性的媒体到广大人民群众,都把矛头指向一个代言人而不是负责监管的官方机构,真的对吗?
如果你不希望中国出现大规模枪杀案,那就要从规则上限制枪,而不是要求中国的厂家不许研制枪械。否则枪手大可以从国外买枪,看看清朝的历史,懂得都懂。
魏则西事件之后,都在骂百度。就算把百度骂死,医院就不能在电视上做广告了吗,就没有其他商业途径吸引病人了吗?这家医院的从成立到运营,资质哪儿来的,又如何进了武警医院,这些问题也出在百度身上吗?
做个类比,这位 “高级产品经理” 的逻辑放在魏则西事件里,就是避开核心矛盾(法律和监管),甚至也避开次要矛盾(百度捞钱),然后让大家警惕搜索引擎这个技术产品。
这种思路,无非是吃准了算法工程师不会找他麻烦,得罪得起而已。
言尽于此,剩下的留给大家去悟。
第 3 点,收集人脸数据的行为属于灰色地带。
如果说旷视在这个产品里有什么不道德的地方,那就是数据采集了。
人脸算法对训练数据的数量需求非常大。早期做人脸识别研究的课题组都会花钱找人来配合采集样本,但现在的算法动辄使用上亿的样本,这个采集成本没人愿意付。所以,私下采集是行业内比较普遍的做法。
为什么说是灰色地带?
单纯在公共场合架摄像头拍摄是不违反道德的。但如果在不经被拍摄对象同意的前提下,把拍摄到的图像用于商业用途就违反道德了,同时也违法。
采集人脸样本的特殊性在于,算法公司不会直接用这些照片去赚钱,但会用这些照片训练算法,然后用算法去赚钱。
很难界定这个算不算法律上的商业用途。不过现在的默认情况是,没人反对,那就认为人人赞成。
我不知道旷视是否告知校方和学生,拍摄到的图像会被收集,用于算法训练。我怀疑不会告知。
第二个问题:这个产品是否有意义?
结论:没啥用。
人脸领域的算法,哪怕最成熟的人脸识别,也根本谈不上精确。
随便一个保安,在室外场景下分辨人脸的准确率都碾压人工智能。
更何况表情识别这种不靠谱的算法。
也只有学校会闲着没事去买这种产品,私人企业绝不会画这个冤枉钱。犹记得旷视当年推出的 5 万一台的人脸识别门禁,不知道卖出去几台。
人脸识别到现在为止也只能用于对精度要求不高的领域,哪怕刑侦方向,协助抓逃犯,也是靠最终的人工审核。
至于人脸支付、人脸门锁这类东西,我不敢用。
这个产品之所以用出去,就是因为学校根本不在乎这玩意准不准,只是随便安装一个,显得学校高大上罢了。买这套产品的钱,可能是什么经费花不出去要回收了吧,不花白不花,反正落不到自己口袋里。
人工智能吹了这么多年,现在真能工业应用的还只是检测。
看的出来,独角兽们也挺急的,毕竟融来的钱越花越少了。
本来,过程化教育是好事。可以针对学生的状态调整教学,安排有针对性的补课或者加课,达到更好的效果。但问题是,现在学校考试太水了。过程化教学不做,学生也可以水过。这时候老师和学生都没有动力去发挥过程化教学的优势。只能用来点名。
所以核心问题是,学校毕业证水分太大。为了证明自己毕业证水分不打,学校想到的办法是加大考勤的比重,配合更加垃圾的考试水平。以摆脱自己学校教学能力差的责任。
其实那里用得着考勤呢?全国各地的考试中心来检验,所有知识点全考。一点都不漏。公开题库,上机考试(配合录像证明没有作弊),只要学生没毕业,随时可以考。
你的学生有本事一堂课不听,全部考过。那这个学生就是合格了。你管他考勤不考勤呢?
另外,学生学费跟着学生走。学生不上课,你学校就拿不到课时费。这样才能倒逼学校做好自己的本分,而不是整天想着考试怎么放水。
归根结底,是中国严重畸形的教育理念的又一种外在表现。在此之前,强制性晚自习、补课、海量习题等等扭曲的教育现象已经普遍存在,只是这一次扭曲得与时俱进,引起了关注。
中国自古就有读书改变命运的传统,封建社会的科举制度曾领先世界。但是,这个制度一直被用来做蠢事。几乎每个中国人都知道 “两耳不闻窗外事,一心只读圣贤书” 这句古话。为了在科举考试中获得好成绩,中国古代的学生便“一心只读圣贤书”。什么是圣贤书?孔孟之道、四书五经、三纲五常。这些东西里固然有值得研习的部分,但是“四书荼毒生灵,五经钝化人心,三纲生产奴才,五常捆绑性情”,将它们当作圣贤书来读,学生成了没有独立思想的奴隶,科举制度也成了统治者维护统治的工具。
科举制度本身没有问题,有问题的是使用它的方式。现在,对很多人而言,高考的意义和古代的科举制度差不多,都是改变命运的机会。这本来是一件好事,但是我们又走偏了。
所以说,通过科技手段监视学生上课,其实是这套扭曲的教育逻辑下合理的产物。
好好积累学生产生焦躁,还有分神的数据,做这种教育产品眼动仪也是标配。如果是单纯的反馈学生开小差并处罚,那你不如多配一个老师。
甚至不用多配,去问问老师在讲台上哪个学生干了什么不是一览无余?这个产品最有价值的是记录学生分神点节点真正做到探测所谓知识缺漏的地方然后针对这些地方分配老师补习。当然课堂班级也就不固定了,授课内容也不会统一。
我一直比较反感一些人说什么教育流水线,你见过良品率这么低的流水线吗?
有很多知友回答了科技伦理和道德问题,我的观点与之无异,故无需多论,我则尝试从人的方面来分析这个问题。
那么,旷视事件(姑且这么称)的参与群体显而易见的分为三类:学生,老师和旷视公司。我接下来便将自以上三类群体的角度出发来阐述观点。
不知读者知否所谓 “观察者效应”?简而言之就是说,作为观测一方,其观测不可避免地会对被观测者造成或多或少的影响,这种影响在被观测者得知自己受到观测时尤为显著。搜索引擎上有许多观测案例,包括著名的双缝干涉实验,我就不一一列述了。
那么,请让我们把视角转移到被观测者——学生。假设你是旷视产品监控底下的一名学生,你得知自己被实时监控了,且监控能识别你的举手,听讲,趴桌子甚至是玩手机等举动,要是个人都会浑身不自在,何况是学习压力本身就很大的学生。因为积分制的引入,在课堂上还得刻意多做能得正分的举动,时刻注意自己有没有扣分,积分榜就犹如某农药的排位赛一样,教室中充满了怪异的气氛。
更糟糕的是,由于不确定老师是否在看监控以及监控系统的全时性,作为学生很可能会揣测监控方的行径 “老师在看监控吗?”“监控分析了我的行为吗?” 未知困扰着学生,除了去办公室一探究竟以外无法得知。无法探知是否被监控,使得操作监控的老师对于学生来说就像笼内的小猫对于薛定谔,而生物趋利避害的本能让学生不得已假设老师全时监控着自己,使得行为约束和选择性行为更加明显,压力加强,同时产生了强烈的心理不平衡。
而作为监控方的老师,在得知如此全面和详细的监控数据后(从图上来看,更多的是负面数据),特别是在人们普遍对所谓的大数据和人工智能算法不了解的情况下产生的盲目信任的加成下,对得到的数据产生了主观分析,产生了以下效应:因为老师无法全面分析全班五十个学生的数据,在随意浏览了一部分学生的数据后,会本能地找出数据最难看的那一个,加以注意,同时因为人上课不可避免的总会开小差,每个人都有或多或少的不良数据,导致老师对这一群体产生不好印象。当时间累积,数据在一天之中不断积累,同时老师看的次数增加,不同群体大致覆盖了全班同学,又因为从前并没有详细数据反映负面情况,第一次接触数据致使老师形成了 “班级乱” 的主观印象,从而产生影响上课心情等等负面状况。而且显而易见的,知道诸如 “举手次数” 或“开小差次数”的数据不会对提高教学质量产生任何帮助。
再从旷视的角度上看,现在智能屏幕和监控类教育产品层出不穷。而想要 “脱颖而出” 就不得不搞掂新花样。于是产生了 “教育结合 AI 大数据分析” 这种令人汗颜的,和 “生猪养殖智慧管控” 无二的奇葩产品。效果如何?能在知乎上引起广泛讨论的大多都不是有什么好影响…..
所以旷视这东西就和前些年火的智能马桶盖差不多,扒了教育的外衣无非还是蹭所谓大数据的热度。而且一旦教育成为了产业,当市场的逐利性沾染了书香课堂时,教育就会无法避免的变味了。
学生不是精准监控智慧养殖系统底下的生猪!
有需求要上,没有需求创造需求也要上!有能耐去搞点有用的东西啦,监视上课没必要。
监视校园暴力倒可以考虑
但检测和识别校园暴力就难很多了
哈哈,社畜们别以为只是方便自己管教孩子,很快就到老板来监督你们 996 的质量了,到时候看你们怎么摸鱼。
这事和科技进步一点关系都没有。根本就是 AI 公司做了一堆很自嗨的产品根本卖不掉的问题,毕竟我国 AI 公司估值主要靠论文数,起到了大学科研方面的主要作用。
打羊吃人那年起,就这么管杀不管埋了好吗。
“你不懂 1984!”
“你不懂 AI 商业。”
预期担心 1984,还不如担心全世界都变成斯金纳箱,大家都在定制的狂欢中孤独地癫狂致死吧。隐私保护的是在荒野中人作为野兽的权利,荒野早就成为一种商品了。
技术实在太落后了
应该直接植入人脑
想什么一目了然
当你意识到危险时,一切都已经晚了
我们应该感谢这家公司,他把一个事实公之于众了——“这种设备将会越来越广泛应用”。
我们现在知道了,哪怕在大街上走路,摄像头也能随时分析你的表情。越来越强的计算机芯片则会把这种事变成自动化的,根本无需监控员盯屏幕。
不能再多说了。**如果一个技术已经达到了可用的程度,那么他被明着或暗地里使用就是必然的事。**基因编辑婴儿出生招致社会谴责,但那是因为当事人主动公开了,如果他不公开呢?
当然,这种技术一旦普及,那么整个社会的面貌都会改变。在脑电波识别还没有普及的时候,每个人都会从小培养起一种表情伪装技术。微表情识别?那就学习更高级的微表情伪装技术。
几十年后,中国人将变为和欧美人完全不同的物种。美国人的所有表情识别技术将在中国人身上失效,因为中国人自小就练就了一身应对的本事。
psycho pass 真是一部有前瞻性的番。
成绩提不提高我不知道,但是我肯定学生的心理问题肯定会更多
科技向善,现在在天朝科技助力控制的方向,根本不考虑是否向善
心里测理者正在逐步变成现实。
小心点,今天提反对的,明天搞不好都会因为犯罪值过高被直接干掉。
别问我支不支持,问就是支持。
这个问题能拆分成若干小问题:
1. 监视学生上课能否提升学习成绩?
绝对不能。大家都是有多年当学生经验了,谁都知道,假装认真读书,比认真读书容易多了;而分配精力到假装认真读书上,浪费的精力比走神多得多。越是通过技术手段监控学生学习过程,越影响学习结果。
2. 这项技术有没有可能应用在更多领域?
不要问丧钟为谁而鸣,
——丧钟为你而鸣。
这本来就是项可以被广泛迁移到各种环境中的技术,而且按照目前的形势来看,迟早都会被迁移到更广泛领域里。
站着说话不腰疼,我私人希望这些鬼技术能率先应用在各级机关 zz 学习,rmdb 会议之类的地方。但是现实点来看,怕且首先被安排上的,就是我们这种草根阶层了。
真是怀念当年随意艸塔马傻逼张广宁的日子啊!
一瞬间我想到了 “洞察计划”
毁灭吧,赶紧的,累了
我来提供一个不同的角度。
很多人在答案中没有提到的一点是,我们所说的侵犯隐私到底是什么,是数据采集的过程么?还是利用数据做决策的方式?我想一定是后者。我们实际上忧虑的是,那个躲在屏幕背后查看分析每个学生听讲次数的那位老大哥,可以肆意地利用这份数据做一些提升学生教学效率以外的事情。换句话说,我们不信任使用这份数据的人,因为我们身为人,知道人不够中立,只有当我们把利用数据的决策者从人换成相对中立的机器,这个问题才能有可行解。我很想强调一遍,隐私的概念源自人与人,也仅适用于人与人,至于人与机器之间数据的关系,我们尚未发明出那样一个词汇,也便不在这个问题得讨论范围内。所以这个问题的核心矛盾在于,我们提供了一套技术来搜集数据,但却没有能力保护这份数据并把决策权交给立场中立的机器,造成了现在无比尴尬的局面。
好一个青黄不接的荒诞时代。
PS:
试想一下,如果有这么一天,我们的记忆可以移植到虚拟世界,那里没有摄像头,也没有 AI 点名,我们的所作所为无需监视,便能够成为这个世界中的一个数据点,我们能接受么?
这个事情让我想起刘慈欣的一部小说《镜子》
小说的主人公成功制造出了超弦计算机并且模拟出了地球的模型,导致这台计算机可以成功演算出包括过去现在未来几乎所有时间内地球范围发生的一切事情,任何人在任何时间做的任何事都可以被观测到。
这导致了所有人的生活都成为了一片透明,每个人都毫无保留地被暴露在所有人面前,毫无隐私可言。人们不得不以完完全全的真善美要求自己。因此人们获得了和谐,幸福,却逐渐丧失了创造性,欲望,以及进取心,人类进入 “光明的中世纪”。最终由于人类没有研究出离开地球的方案,地球资源枯竭,人类 gg。
大刘的这篇小说从小处着眼的话,在我看来就是对侵犯隐私权的行为的批判。你今天说监视学生是为了教学质量的提高,那明天就可以说我要监视官员预防腐败,后天可以说监视员工避免怠工,大后天是不是就说我要监视每一个人来遏制犯罪?然后人人成为真善美的化身,进入 “光明的中世纪”?
所以这个侵犯学生隐私权的东西在我看来是一定要抵制的,现在不反对它的实验,或许将来我们就会看到它的商用,甚至再往后就可能看到它使用对象的扩大……
可以毫不夸张的说,如果某项技术的主要作用是对隐私权的侵犯,那么这项技术就应该是一项该被法律明文规定禁止使用的技术。别扯什么 “技术无罪” 的大道理,动机不纯的用途都摆在那里,它哪来什么无罪之说?
感觉下一步就是,每个企业装一套。
比较官方的说法是,感谢中国人民自动让渡部分隐私空间给予国家和企业更多权力。
实际是,大部分人完全不知道也不懂得自己有做过哪些选择。
国家大部分对新型技术法律法规不完善,犹如互联网早期,但 AI 技术这里顶层却是十分先锋,毕竟这是一个争夺隐私与数据的荒野。
我觉得挺好的啊,毕竟学生上课认真的话有什么好怕人家看的呢,这套系统应该广泛应用在全国各种会议跟工作岗位上,例如各层级政府会议乃至于全国人民代表大会;派出所执班民警乃至于国家领导人办公室上。
ctOS 0.1
现在学校可以用这个鬼东西监视学生,将来老板也可以用这个鬼东西监视你
上一个搞这种幺蛾子的公司,名叫百度。这就是我的看法。
建议此产品先在各级政府部门试用推广,尤其是工商 / 社保 / 税务窗口,充分发挥党员的先锋模范带头作用。
话说这玩意闹不好会成笑话吧?
你说监控啥不好,非要监控课堂,课堂行为和成绩结果可不是必然联系的。
我的经验是越是成绩好的人,越是有些怪癖。学生中两类人最难管,一是学习最好的人,一是学习最差的人,前者你管了成绩闹不好要下滑,后者人家就没往好好学习这方面想。
现在搞了这个监控系统,上课的课堂行为你搞了一套评价标准,就像图中的什么听讲、举手啥的,定义了一个好与坏的结果。可是就是有人上课不怎么听讲就能考好成绩、就是有人上课睡觉还能成绩排在前面,那这套课堂监控系统如何排除这类异常值?
万一你监控系统评价出来的好学生,考试成绩却差,或者你监控系统评价出来的坏学生,考试成绩却名列前茅,这不就成笑话了嘛。设计这个的人怎么想的?
我同意这个问题下的两个观点:一个是理科生技术发展与文科生产品设计的矛盾,一个是这种技术为啥不作成校园暴力监控而要搞什么课堂类系统。这个问题下,有演变成文科生与理科生互骂的趋势,这就很无聊了。某些人神经也太脆弱了,文科生槽点很多,理科生槽点也很多,但是指责理科生可从来没有指责文科生闹出的动静大、引发的争议多,就好像文科生是碰不得的一样。
这种一碰就炸的行为,你让别人怎么尊重你?至于那些扯到政府、扯到所谓 “不可说、你懂的” 方面的,带节奏请不要太明显。
以上。
我预计这样东西不会起什么效果,因为精神不集中是人类特性不可能改变的,侥幸心理也是人类共同的特征,管理严格到一定程度以后再怎么增加也不会再提高效率了。
但这类技术肯定会越来越多,因为实际本质原因是摄像头越来越清晰,请搞清楚因果,教室安装高清摄像头起无论有没有分析软件学生已经会感受到无时无刻的监控,机器查岗只不过比人工抽查来的无死角罢了,说实话如果学校每周人工抽查你会觉得侵犯个人隐私吗?
当然不是说这种技术是对的,检查人们不自觉无意识的动作显然是瞎搞,这是图片中检测内容引起反感的重要原因,如果只是检测违禁用品比如看手机、看无关书籍、打闹等等就会合适很多,技术的边界可能未必是道德决定的而可能会被成本、效果所决定。
之前因为有些家长担心小孩教育问题,在小孩手机上开启监听功能。结果,老师们反弹很大。
这次摄像头对准学生,老师会反弹吗?
老大师在看着你!
中国人集体主义泛滥,这这种侵犯别人民主自由人权行为再普遍不过
今天你支持他们教师学生,明天他们就会过来监视你,上班想摸鱼?看淘宝?发呆?不存在的。且不说上边这些,且不说学生,作为成年人,你能保证自己一天 8 小时工作不走神不做别的?自己都做不到还要求孩子,你上学那会从不走神?
没有想到,最早走向作恶的是 “旷视”。
这几个毕业不久的创始人,在资本的驱逐下,最终忘了初心:这就是你们改变世界的方式?
我觉得还好吧。
我觉得关注点应该是:
1。谁是数据的拥有者?因为涉及到很多人,涉及隐私。一个比较妥帖的方法是,数据一个月应该销毁。
2. 如何做出对学生最好的反馈?比如学生 A 如果知道自己走神时间平均 20 分钟,学生平均走神时间 5 分钟,那么是不是会促进教育者提供更好的方法因材施教?
至于:
我们关心监视应该关心什么?
数据的安全。
数据是否会永久保存?没有人应该为一点小错而一辈子被提醒被嘲笑。
数据对谁公开?
犯错的惩罚。
谁是惩罚者?谁能介入阻止延缓惩罚?
系统是否会造成惩罚的更多地滥用?
我觉得上面这些问题都不是解决不了的问题。当然我可能没考虑全面。
我倒是觉得隐私什么的好像不是主要的。因为这种公共场所的隐私好像早就没有了。监控到处都是,也没人说隐私的问题。
好像是罗胖的一个节目,说隐私的定义大概是随着时代,文化变化的。举的例子是印度仆人会在厕所里帮人擦 PP。然后结论似乎是隐私是特权… 一般人的对隐私的观念是商业驱动的。
回到监控是不是侵犯隐私,那取决于你是不是能得到好处,比如被监控的学生就是成绩提高了,我就问你家长在不在乎隐私?对于挤破头把孩子送到类似衡水中学家长估计答案是显然的。
不过我倒是觉得能不能真正提高成绩是存疑的,然后提高成绩的同时有没有什么负面的影响,但隐私这种东西显然并不是什么实际的利益受损。
Google 当时准备将 AI 用在军事领域时,大片员工都站出来反对;而国内呢,我很多同学读研做 CV DL 项目时以这种军事项目为荣。
有些「其它的」东西一旦侵染到技术领域里,技术和人便会作恶。
本身这套系统的功能并非令人担忧的问题,而是这系统建立后,依托其建立的数据库,使用这套数据的人、未来延伸的新功能,数据分析,以及一系列可能性才是最让人不寒而栗的。没有此系统中学和高校还有不少各怀鬼胎的人作妖,此时又有人打造了一把趁手的兵刃,打开了潘多拉魔盒,学生和部分老师真是雪上加霜。
对于学校而言,加上这个系统真的是为了增加教学质量和提升学生态度么?反正我是不信的。因为本身我父母都是一线教师,对于北京这边老师和学校的态度还是略知一二。中学即便有提高学生的中考高考成绩作为老师和学校的绩效的想法,在教室等位置装监控设备还是为了管理和向家长交差。一个是安全问题,孩子在学校摔了碰了还是被谁打了,一调监控就能知道原因,也不用有些家长像以前一样跟学校和同学家长扯皮。另一个是成绩问题。每个家长都觉得自己孩子天下第一。成绩不好了有时候还把锅甩给老师,调监控你家长自己看你孩子上课时候都干嘛呢。谁的责任也门儿清。中学装监控的目的更多的还是明确责任划分。对于高校而言,成绩重视程度更低。对于考勤和课堂发言的量化更多的是对学生最终成绩的明确。这学期我担任一门 MBA 课的助教。老师明确和我说过,对于迟到早退等考勤记录和上课发言次数都要明确记录,为的就是作为给分数的明确依据。MBA 的学生本来爱扯皮的人就多。期末一旦给不及格这些数据记录都是证据。
这么一说似乎数据的记录还是有理可循的,但为何就成了助纣为虐的刀了呢?在我看来是程度和人性的区别。在清华,成绩占比包含考勤、发言次数的课不是水课就是老师根本没想好好上的课,或者就是必修课,学校对考勤有要求。高校上课的目的就是为了把知识教给学生,如果人学生次次课不来最后考试满分这又何尝不可呢?课上的无聊,就知道念五百年前做的 ppt 你凭什么要求学生次次来?课堂气氛凝重、老师一言堂,或者学生根本就是被强迫来上的课又怎么不会死寂一片,无人发言?就算是在清华以上形式的课比比皆是。有的课 ppt 都传了 3 辈儿老师了,上课唯一的事就是念 ppt。我有时都在想,相比高中,高校的老师你黑板课间有人帮你擦,ppt 也是传代的,作业也有助教判,成绩还不用管,你就拿个嘴来讲课都讲成那个德行不羞愧么?还有的例如思修,相信岁数稍微大一点的清华的都认识个叫帅松林的老师。极度自恋,还天天在课堂上为 wg 叫屈。最后课堂报告只要变着法的吹他就行。吹得越圆润委婉越加分。而这课就有签到和发言分数,但至少去可以做自己的事,趴着睡觉也行。试想一下,这种课如果上了这个旷视科技的产品。面对着上述这类课不能趴着,不能干自己的,不能聊天,要么就扣分,只能干瞪着眼看着帅松林在上面两片嘴翩翩起舞,真乃人间地狱。
当然,清华也有丰富的优质课程。很多老师也是德才兼备。这类课程大都或打分构成简单。作业 40% 课程报告或考试 60%。或者拥有充实的课堂案例教学,分数构成复杂。本身上这类课程是种享受。这类监控系统一上,听入迷了不能趴着,歪着。听高兴了不能交头接耳。学生上课总要脑子里绷紧一根弦。任课老师也要时刻提防着学校哪个领导过来嘘寒问暖 “xxx 老师啊,您这课堂秩序要多注意注意啊。这系统显示您课堂上学生不规范课堂行为可超指标了。再这样影响学院 xx 评比分数就只能先让您这课下学期停开了。多跟人思修帅老师取取经,你看看人家上了系统之后课堂秩序多好”。原本一堂氛围热烈,师生融洽的课就给糟蹋了。
除此之外,学生行为要是落实到数据上,那么就延伸了太多可能性了。有了数据,我不信学校不会进一步搞数据分析。分析了,这结果就必然会纳入到学生或者老师的考核指标之中。不仅仅是课堂。反正设备在教室里只要是活动就能用。“一二九”唱歌排练,每次排练开系统,一次不规范行为这个学院扣一分。团委和院组织活动开系统,所有分数纳入到 “甲团” 评比。甚至三好、优秀毕业生、奖学金都加入对日常行为规范的衡量。一来二去,学生中甚至都能产生相互监督制度,毕竟是为了 “集体荣誉感”。这类拿人民斗人民的技巧一招鲜吃遍天。依照我的观察,我想这反而正是那些“理科生” 的最厌恶之事吧。理工系的学生更不爱对这类强制活动妥协。
我看其他答案有将之和天网系统作对比的。但正如我所说,这是程度及人性的区别。天网系统监督的是对社会有害,违法的行为。但旷视科技的这个系统监督的却是上课趴着,看手机,睡觉等根本无伤大雅的事情。抢劫、猥亵肯定会对某些人产生不良影响。但趴着、看手机就一定会影响到学习效果么?或者说不玩手机、不趴着就会提升学习效果么?或者说究竟谁有没有权力去强制帮助谁提升学习效果?
另外高票还有对文理科生不同职能的论述。首先,文理科生的定义是有争议的。究竟是指在高考时选择文科考试还是理科考试就是文理科生呢?还是指在社会中选择了技术层面工作的就是理科生,其他就是文科生呢?如果是前者,那么很多高考时选择理科的学生最后去做了公务员或者学校行政人员。很多高考时文科生的学生最后转了程序员。我想旷视科技里开发这款软件的总不会高考时都是考的理科吧。(当然也有可能)我更倾向于其答案指的是后者。其理更像是 “我只管做,你们负责善后”。抛开人性思量而开发是简便些。但究竟是懒得去想还是就缺呢?颇有种“我做了个核弹然后把按钮卖给了一个精神病。啊你们说这精神病可能自己瞎摁按钮?你们去善后啊,我只负责开发。技术是无罪的。” 另外,我并不认为社会分工存在文科生理科生之分。在高考都要有取消文理之势下,文理兼修才是人精神世界最佳的状态,不论工作为何。
P.S.
AI 这风刮了快 10 年了。工资越来越高,转 IT 的人也越来越多。就连我都去学了一点(更发现自己不是当码农的料)。看似做的 ppt 繁花紧簇但至今落地的也就是一小部分。更别谈稳定盈利了。估计要以 2020 年上半年美国经济危机为因断掉大量的投资资金,至于 5G 能否给 AI 续命我感到悲观。旷视上半年亏了 52 个亿,估计也想做点标新立异的来变现吧。
在网上查阅了相关的消息,这个事情在网上还是掀起一阵波澜的。有意思的是,旷世的回复基本没有提及对于学生课堂行为衡量的系统。
更多的在强调校园安全业务,声称课堂行为分析只是技术场景化概念演示。业务主要只有 “智能校门”、“教室门” 和“宿舍出入”。并未提及课堂。在旷世官网上也没有找到课堂行为分析的案例。那么至于这是源于旷世原本行为分析就是做个概念图,还是说本来要做结果事情闹大了就不提了,这就不得而知了。
在第二次世界大战中,纳粹德国对近 600 万犹太人进行了惨绝人寰的大屠杀。受害者首先被围捕并剥夺财产,然后被塞进一列列火车,这些火车的目的地将会永载史册:达豪、毛特豪森、布痕瓦尔德、贝尔根—贝尔森、奥斯维辛……
这是一项浩大的工程,需要对德国国内以及被占地区所有人的身份信息 进行登记归档,需要对劫掠的财产进行记录和分类,需要将被捕的犹太人根据性别、年龄、职业等特征进行分选,还需要对庞大的铁路运输系统进行复杂的调度。只有这样,纳粹的种族灭绝机器才能保持高效的运转。如果没有先进而完善的技术支持,这些活动将耗费掉纳粹德国巨大的人力和物力资源,甚至根本就无法完成。
在大洋彼岸的美国,希特勒找到了他的合作伙伴:IBM。
通过查阅 IBM 的官方文件以及来自美国国家档案馆、德国联邦档案馆、荷兰国家档案馆等权威机构超过十个国家和语言的近 2 万页文献资料,《纽约时报》畅销书作家埃德温 · 布莱克完成了历史巨著《IBM 和纳粹》。
自动化凶器
当 “大规模组织的信息”(MassivelyOrganizedInformation)这一概念悄然出现,并成为一种社会控制手段、一件战争武器、一张集体性毁灭指引图时,人类几乎毫无察觉。 1933 年 1 月 30 日, 20 世纪最重要的一天,引发这一概念的独特导火索出现——阿道夫 · 希特勒(AdolfHitler)正式上台。讽刺的是,希特勒对犹太人的仇恨推动了技术变革;而一家美国企业及其独断专行的传奇董事长,则凭借着自身对利益的渴求极大地促进了希特勒实现目标。这家美国企业即 IBM,而这位传奇董事长则是托马斯 ·J. 沃森(ThomasJ. Watson)。
希特勒并非首位痴迷于屠杀犹太人的领导者。在他之前,欧洲也曾出现独裁者和暴君。然而,希特勒却得到 “自动化” 技术的助力,这是前所未有的。此外,希特勒也并未孤军作战,而是得到了他人的鼎力相助。
大屠杀制造了一个黑白颠倒的世界。在这个世界里,尊贵的技术人才成了希特勒的先行部队。警察无视职责,支持恶棍并迫害无辜者;律师扭曲正义,制定反犹法律;医生亵渎医德,操刀进行各种恐怖实验,挑选出相对健康的人,迫使其劳作至死,再将那些没有利用价值的犹太人送进毒气室;科学家和工程师贬低了自己的使命,发明工具或阐明科学原理来助推大屠杀行动;统计学家利用鲜为人知却十分强大的统计学知识来识别受害者,以便更好地规划并合理化大屠杀行动、组织迫害,甚至审计种族灭绝行动的效能。现在,让我们看看 IBM 及其海外子公司在大屠杀中所扮演的角色。
IBM 创造了一个拥有无限可能的技术世界,但自恃骄狂的它也被这个技术世界的漩涡弄得头晕目眩。 IBM 谨遵一条 “不道德” 的特殊信条:只要有能力做,那就应该做。对于盲目的技术官僚而言,手段永远比目的重要。犹太人的生死之所以变得不重要,是因为技术官僚(科学家或工程师出身的 IBM 中高层)只关心能否在灾民排队等候救济粮时获取巨额利润,而对利益的追求反过来也会激励 IBM ,使其不断提升自己的技术成果。
那么, IBM 是如何做到的?
希特勒上台后,纳粹分子的首要任务就是找出并毁灭德国境内的 60 万名犹太人。在纳粹分子眼中,犹太人不仅包括犹太教徒,还包括所有流着犹太血液的人,无论他们是否融入了其他群体、与其他民族通婚、参与其他宗教活动或已经转信基督教。纳粹分子只有在辨别出犹太人后,才能没收其财产,将其隔离、驱逐、毁灭。为此,纳粹分子必须搜索德国境内以及欧洲其他国家所有的社区、教堂和政府记录。这是一项艰巨的交叉索引任务,需要计算机的协助才能完成。但在 1933 年,计算机尚未出现。
第三帝国计划剥夺犹太人的经济权,并将其驱逐出家园,赶进犹太区。这项任务同样艰巨,也需要计算机。但在 1933 年,计算机尚未出现。
纳粹分子在计划执行最终解决方案时,想利用铁路系统更高效地将犹太人转移到死亡集中营,并让受害者一下火车就被送入毒气室。这需要精准掌控时间,仍需要计算机。但在 1933 年,计算机尚未出现。
不过,当时存在着另一项发明—— IBM 穿孔卡及卡片分类系统,即计算机的前身。IBM 通过德国子公司德霍梅格与纳粹分子交易,将希特勒的犹太人灭绝计划视为技术使命。通过与纳粹组成联盟, IBM 试图大发战争财。德霍梅格利用自己的员工与机器为希特勒提供了不可或缺的技术支持,使其能完成前人无法执行的任务——自动化人口毁灭。 IBM 向德国调遣了 2000 多套机器,之后又向欧洲德占区调遣了数千套机器。每个大型集中营都安装了卡片分类系统。一批批囚犯会被转移到不同的地区,并劳作至死,而他们的死亡数据会被记录在冷冰冰的自动化系统中。
德霍梅格不只是提供机器,它也具备 IBM 纽约总部的运作能力,其正式业务就是为客户定制机器和应用程序。活跃而狂热的纳粹分子组成了这家公司的高层,最终,这群人在战后因其所犯的战争罪而遭到逮捕。 1933 年以来, IBM 纽约总部自始至终都知道,德霍梅格努力讨好的交易对象就是纳粹党的高级官员。利用与纳粹党之间的联系,德霍梅格不断加强与纳粹德国的业务关系,不仅包括德国境内的业务,也包括欧洲德占区的业务。
德霍梅格等 IBM 子公司会为客户定制应用程序。与今天的软件设计者类似, IBM 的技术人员会反复将穿孔卡模型送进德国官员的办公室,直至达到要求。只有 IBM 能设计、印刷和出售这种穿孔卡,但 IBM 并不出售霍尔瑞斯机器,而是出租。同样,也只有 IBM 能对这些机器进行定期维修和升级。 IBM 子公司为欧洲各地的纳粹官员及代理商提供了专门训练,并在欧洲德占区建立分支机构,组织经销商。这些子公司还会寻找造纸厂,授权其生产穿孔卡。仅德国,这些工厂每年就能生产多达 15 亿张穿孔卡。此外, IBM 的职员几乎每隔一个月就要到各处维修这些精细的机器,即便后者被安置于集中营内部。德霍梅格位于柏林的总部保管着大量编码簿的副本,就像今天的任何一个 IBM 服务部门所保存的电脑数据备份一样。
犹太人名单从何而来?
我常被一个问题所困扰,这个问题即便是历史学家也无法解答。为何德国人总能得到犹太人的名单。有了这些名单,面孔铁青的党卫军得以突然闯入城市广场,贴上告示,要求名单上的人第二天在火车站集合。之后,党卫军会将这些聚集起来的人驱逐到德国东部地区。但纳粹分子是如何获得这些名单的?几十年来,没人知道,也少有人问起。
德霍梅格利用人口普查和先进的统计技术、登记技术促成了纳粹德国的驱逐行动。 1896 年,德国发明家赫尔曼 · 霍尔瑞斯(Herman Hollerith)创建 IBM 。 IBM 最初只是一家制表机公司,人口普查是其全部业务。但在德霍梅格与纳粹德国结成联盟后, IBM 便被赋予新的使命。德霍梅格发明了种族人口普查,不仅要求获取调查对象的宗教信仰,还要求追溯调查对象的血统起源。这是纳粹分子梦寐以求的信息,前者迫切希望辨识犹太人。
登记人口与资产只是纳粹德国在运用数据分类系统时发现的众多用途之一。纳粹分子还会利用数据库分配食物,以选择饿死某些犹太人。对劳工的识别、追踪和管理在很大程度上也是利用穿孔卡进行。此外,纳粹分子还能利用穿孔卡管理火车的运行:既可确保火车准时到站或发车,也可对火车上的货物(人)进行分类。德霍梅格的首要客户是德国铁道部,后者直接同柏林的 IBM 高级管理人员洽谈业务。德霍梅格会定期维护火车站里的穿孔卡设备,其服务对象一开始只限德国,最终扩展到整个欧洲。
在第三帝国存活的 12 年里, IBM 与其交往密切,肯定获知了许多信息。对于那些相当糟糕的信息, IBM 充耳不闻。但 IBM 要员,如沃森的私人代表哈里森 ·K. 昌西(Harrison K. Chauncey)与 W.C. 利尔(W.C. Lier),几乎一直在柏林或日内瓦留意第三帝国的举动,以确保 IBM 纽约总部不会错过任何利润或商机。尽管美国严禁通敌贸易,不允许企业与纳粹直接接触,但 IBM 要员仍通过 IBM 瑞士办事处不断为 IBM 纽约总部提供重要信息。由此, IBM 纽约总部就可大胆声称自己没有从事非法活动了。
当然,在希特勒掌权的这 12 年中, IBM 与德国纳粹的联盟关系与背景也在不断变化。我希望你能了解整个故事的来龙去脉,若你只是跳跃式地阅读,那只能得出片面或不正确的结论。所以,如果你打算走马观花地浏览本书,或只选读部分内容,请干脆不要阅读。请明确这一点:即使没有 IBM 的协助,大屠杀仍会发生。如果你不这么认为,就大错特错了。如果没有 IBM 的帮助,那么纳粹分子会借用纸笔慢慢统计犹太人,进而用子弹和死亡部队逐步屠杀犹太人。尽管如此,我们仍有理由去考究为何希特勒能在短时间内以惊人的速度屠杀数百万生灵,也有理由去确认自动化技术在其中扮演的关键性角色,因为我们有必要弄清谁该为屠杀负责。
是什么促使我寻找 “IBM 和大屠杀” 那些未被提及的问题? 1993 年的一天,我在美国大屠杀纪念馆(United StatesHolocaust Museum)见到了 IBM 染指大屠杀的证据。当时,我看到的第一件展览品是一台型号为 D-11 的霍尔瑞斯卡片分类机,上面满是电路板、插槽和电线,十分显眼。机器面板上贴着一张发亮的 IBM 标示牌。后来,博物馆用另一台较小的 IBM 机器代替了这台卡片分类机,因为围观人数过多,妨碍了其他游客走动。这次展览只提到 IBM 于 1933 年执行了人口普查项目,并首次鉴定犹太人。虽然证据确凿,但 IBM 对其与纳粹德国的关系仍守口如瓶。因此,尽管先后共有 1500 万人参观这次展览,且其中不乏研究大屠杀的著名专家;尽管杰出的博物馆历史学家做出了极大的努力,但大众对这段历史仍知之甚少,只局限于馆长在展览时的简单解说以及几页研究报告上。
我仍记得自己盯着那台机器看了一个小时,之后,我转向身旁的双亲,向他们承诺自己一定会挖掘出更多线索。
我的父母是大屠杀的幸存者,他们背井离乡,从波兰逃到美国。当时,在一列开往特雷布林卡集中营的火车上,母亲成功逃出车厢,却遭到枪击,被埋进万人坑。父亲从一列戒备森严的犹太人队伍中逃出来后,意外发现母亲露在坑外的腿,于是将奄奄一息的母亲救了出来。在月光的掩护下,这两名侥幸的逃亡者共同抵御寒冷、饥饿,他们历尽千险,最终躲过追捕,活了下来。 50 年后,他们站在我身边,身影倒映在展览台的玻璃上,脑海中回忆着那些子弹碎片是如何永久地嵌入了身体,脸上露出极困惑的表情。
但我此时正想着另一个问题:纳粹分子如何得到我父母的信息?
在欧洲,数百万名犹太人和非犹太人惨遭毒手,他们中的大多数并不是在战乱中痛快地死去,而是遭受了长达 12 年的高度组织化的虐待,在受尽羞辱和非人性化对待后,才最终被消灭。那么,这台静置于昏暗博物馆里的夹杂着黑色、米色和银色的锃亮机器与这一惨剧存在着怎样的联系呢?
罪证:不容遗忘的过去
视角的改变或许是 IBM 和大屠杀的关系从未被探究的主要因素。 1984 年,当我开始撰写《转让协议》时,没人真正关注资产的运作。但现在,每个人都在谈论资产。对大屠杀的学术研究多出现在计算机时代前,那个时候,信息时代还远未到来。而如今,每个人都了解技术如何被运用在战争或和平事务中。因此,我们可以让时光倒退,以全新的视角去看待历史。
许多人都曾为计算机时代和信息时代的到来而欣喜若狂。我便是其中之一。但现在,身为大屠杀幸存者的儿子,我被一股强烈的意识所吞噬,这种意识带给我一种全新的认识。在这个 “认知时代”(Age of Realization),我们将重新审视技术的觉醒。除非我们了解纳粹分子如何获取名单,否则将有更多人被那些名单所编码。
IBM 和大屠杀的故事只是一个开始。根据欧洲各国的资料,我能再写出 20 本。据估算,目前还有超过 10 万份资料散落在欧洲及美国的地下室或企业档案馆里。企业的档案管理员请留意:这些档案跟某项罪状相关,不能被移走、篡改或销毁,必须被转移到合适的档案机构,让学者和战争罪检察官能在第一时间检阅,这样一来,问责制便得以延续。
只有通过揭露和审视那些真正发生过的事件,技术世界才会接受这条老生常谈的格言:到此为止(Never Again)。
利益相关:中国药科大学学生
目前产品在我校也只有在两间教室里试点,大部分学生上课的时候都是没有这个监视的。
我们学校极大部分学生对此持反对意见(事实上目前我所看到的、听到的,全都是反对的,我就没见过一个支持的)
到时候要是安装了这玩意,很多人最多坚持个几天认真听课,之后还不是该干嘛干嘛。
之前就认真学习的人自然会继续认真学习,而之前就不听课的人,安装了这个估计也没啥用,还不是睡觉玩手机。
而且,都大学生了…… 还用这种东西……
那么为什么不在老师办公室里安装一下呢?提高他们工作效率呀!
最后多说一句,人脸识别的门禁确实挺方便的诶
关于旷世科技研发的监视学生上课系统……
我觉得学校将变成《楚门的世界》,学生将永远生活在被监视的压抑中。我的大学老师几乎都不会对学生上课睡觉玩手机有什么严令禁止行为,只是建议不要玩,或者干了与上课无关的事不要影响别人这种比较开明的态度。感觉自己想学的东西学会就好了,不至于每一天都生活在那种像要上电视被摄像头录着的课堂里,哪怕没必要听的时候想放松一下都要被 ai 识别到我走了一次神儿…
之前回家时看望高中数学老师,老师掏出手机给我说现在学校给每个教室都安装了全天的摄像头,班主任拿着手机就可以看到教室里学生们的一举一动可以直播可以回放…what?!!这也太累了叭,高中每天就睡那么点儿已经很累压力很大了,还要被这么从早到晚的监视着,不抑郁才怪。我可真庆幸我没被这么对待过,否则我上课偷吃个零食刚好被老师用摄像头看到咋办?(摄像头下我哪里敢上课吃零食… 老师就是不责怪我我吃着也不爽。)
盲猜等到他们肆无忌惮的给全世界的每一个角落都安上摄像头,美名其曰,每一个人都不可以在任何时候做出出格行为的时候…. 那和被三体质子监视的地球有什么区别?
那我将致力于研发屏蔽信号的东西,先是给自己家里安一个,再给自己安一个,走到家外面时系统可以看见我是谁,我若干了什么违法的事它也能看到,但它看到的我是一个光团或一堆噪点,至于我睡没睡觉打没打瞌睡吃没吃零食有没有认真工作认真听讲,别管我!
希望随着技术的飞速发展,配套法律可以迅速健全起来,否则人们将感到越来越压抑,越来越不快乐,越来越做秀一般生活,这样的世界,真的不会多美好的—参考质子监视下的地球。
弊大于利。学生可以自由选择自己的学习方法,在什么坐姿 说话这种细枝末节上限制学生,我觉得会浪费学生精力,最终降低学习质量。
另外,我觉得义务教育对学习的要求真是越来越低的,整得跟少管所一样,学不学无所谓,坐得坐端正了。
这事儿吧,其实大家都在干。中国在干苏联也在干,美国人英国人也在干。
只不过美国人英国人不承认罢了,不然不好意思号称自己民主自由。
关键不在于为什么要这么干,而是有没有能力这么干。
毕竟,科学才是第一生产力。其他都是政客的玩具,翻来覆去都能说。
你说隐私 ,他说为了全民安全。都对。文字就是玩具而已。
老问题了,who watch the watchman。
如果作为一种举报系统,我是赞成的,如碰上霸凌事件,或者作弊等等。
如果作为一种实时监控系统,这太超过了,学生又不是试验品,没有必要如此的过分。
不过,这些产品的泛滥也是背后的推手,家长在家要监察孩子,帮工;老板在公司要监察员工。这种大环境之下,监视学生上课好像也成为了必然的事。
说回 ai 监察系统,大数据等,也许这种系统能发掘更多的事,除了霸凌这些事件,系统或许能够分析学生的情绪,在学生都感觉课程很沉闷的时候提醒老师应该让学生休息或者转换讨论课题等等。甚至,能够从学生的桌位与分数,同学之间的关系分析出什么东西,个人认为还是很有用的。
只要这系统不是实时的监视学生的一举一动,在某个协商的程度下,个人能接受的就只有如上的举报系统。
什么能够透过 app 观察孩子的,这种不需要的我是不赞同的。
为了盈利反人性作恶的向来都是商人,科技只是它们作案工具。
同样的技术,用在一些特殊场景是非常合法且有效的,但是那样的应用范围太窄了,哪有学校的钱好挣。
big brother is watching you…
其实人物表情的识别还是有一些应用场景的,比如说鉴别演员的表演是否疆硬,是否有表演天赋,可以帮助影视投资对演员有相应的片酬,有一些依据。这样可以节省投资人的钱,可以让名气小的演员,在某些能力值上,得到数据的认可,让观众少看一些演技差的滥片。问题是,当观众身水平有限的时候,投资方和演员干什么要费那个劲,去挑战自己的业务能力呢?
别以为毕业了就没事,办公室这块的业务也会很快跟进,大有市场
弱势群体总是没办法反对什么。
不过好消息是这不是最近才出现的,大街小巷的摄像头,都在监视,哦不对,保护着我们的一举一动。
我们只是装作看不见。
但如果把话筒塞我们嘴里,我们还是要义正言辞的发声,反抗一下。
利益相关: 中国药科大学大二在读
恕我直言,我才不在乎你在上面装什么牛鬼蛇神,老师讲的烂的课我就是不听,除了听课啥都干,该干嘛干嘛;老师讲的好的课,你装不装监控我都认真听课记笔记,蹭课的学生抢了正常上课的同学座位是为什么各位领导心里没点数吗
项目饱和了吧,挑着奇怪的做,每个学生都变成机器人是不是就好了。不过按照放出的图来看,应该不支持活体检测吧?没仔细看,不想听课的话,拿张照片替自己
如果要将这种监测统计学生行为进行推导的话,那么在情理上大多会是:
#1 为了让更有效统计学生的状态,来得知课堂效果如何。
#2 通过统计学生课堂上的 “不正当行为”(吃零食、玩其他东西、分神……),进行结算,然后事后进行辅导。
#3 收集到某些学生的 “异常” 情况(例如异常愤怒、异常伤心……),然后及时进行辅导,解决问题。
#4 收集学生运动的轨迹与情感表现,及时发现学生之间异常 “亲密” 的关系。
#5 通过大数据整合以及特定时段内针对班级数据库分析,然后得出最佳班级座位分布,从而实现真正科学化管理。
#6 入学前可以调取学生上一个学习阶段的综合分析评分,使到学校能够选取更加优质的生源。
#7 甚至结合校园电子货币系统(校卡)以及定位系统做分析,可以准确知道学生的消费情况,从而调整校内消费的整体策略。再者出现一些食物事故的时候,也能更快地得到相关数据。
#8 每学期整合学生年度数据分析报告,放假时然后发送一份给家长。甚至可以针对严重违规行为的过程进行实时截图保存,用于报告详细展示数据时用。
#9 当数据稳定下以后,学生行为与成绩的数据拟合程度足够高的时候,老师能够更有效地为了提高成绩期望值,来获得相关策略。
#10 利用步姿以及身体运动识别技术,及时发现学生身体的异常情况(例如打球崴了腿),进行合适的关怀。
……
稍微想象一下,开开脑洞,似乎能够拓展的应用场景就能够这么广了。
但是这只是需要问的就是,这种全天候的 “关心” 必然会减少那种学生在课堂上玩手机、吃零食…… 的开小差行为。而对于一套需要迭代的系统来说,这种技术甚至可能会探索出更有效的学习模式(例如采用小组讨论的方式会使到效率提高了 10%)。
技术确实没有恶,且不论学生是否会因此而丧失一些 “天性”,但是如果 #6 的情况出现了的话,难免学校会让马太效应发生,让那些 ai 觉得更有潜力的学生被集中,反倒诞生了另一种不公平。
以至于 #3 这种,例如学生确实有出现情绪波动,被 ai 发现,但是并不想老师或者别人来掺一脚,学生也并不想告诉老师这件事,然而 ai 却让老师过来关心,可惜的是学生其实并不想老师关心。对于这种已经是哲学范畴逻辑,又是不是应该考虑的问题呢?
ai 仿佛是一个上帝视觉,然后又要交给人类去执行,这必然会出现很多新的意外。正如有的答主所说,理科走得太快,也需要文科跟上了。
今天早上上班打开 fm91.6 听到有人讨论这个问题,有几个律师还很赞成,认为不侵犯隐私,完全可以推广。我觉得这可真是屁股决定脑袋,凡是赞成的人,先把自己公司装上,让自己接受监控再说吧
名为关爱,实为伤害。如果得知自己始终处于被监视的状态,而且还是个长期的过程,对孩子的未来成长怎么可能不会留下心里阴影?而且还会产生恶性循环,更是对学生人身权利赤裸裸的侵犯。
法律规定的监视住所还只针对特定的犯罪嫌疑人。这样的做法是否也是将学生们预先有罪推定为缺乏自主能力必须要被管制的状态?!
可怜这些学生,也庆幸自己的学生时代。
技术的驱动力说到底就是资本。
技术本无罪。但是,谁能来保证这些记录下来的数据不会被扩散?一旦扩散,导致某些学生无法承受压力而做出过激的举动,这个锅谁来背?
除了那些表演型人格的认或者希望借此出名和赚钱的人愿意将自己的一举一动公布于众外,没有人希望自己暴露在公众的视线下。这些监控本无害,但管理他们的人很难说。
《1984》和《美丽新世界》原本大家以为是两种路线,并且有往第二种发展的趋势。
多好啊,球球各公司多拓展各种各样的业务 8,项目多一些部门多一些解决一下我们没饭吃的垃圾的就业问题呜呜呜
铁丝网的发明是为了放羊,结果用在了奥斯维辛集中营,哪说理去?
哈哈,魔幻现实主义。废托邦。
普及以后全社会不会存在任何违法犯罪甚至违规行为,这不就是乌托邦吗。
奥威尔真乃神人也
事情开始向着越来越可怕的方向发展了。如果这些海量信息被不法分子或者境外势力劫持,我们的国家安全岂不是会很脆弱?
对技术的恐慌是没有用的,隐私保护过度也只会让公共安全技术的发展受到阻碍,要知道传统隐私保护可是只保护私域。不过真正要考虑的问题是,人类为什么需要被监督,是不是监督这个社会制度本身出了问题。
我们在喷香港教育出问题的时候,中国的教育问题也大得很
今天站在长辈的角度不给学生选择的机会监视他们,明天可能老板站在在自己的角度再安排一套监视设备监控员工,后天家长想着家里也不安全放个监视吧,日常监视家里的孩子老人……
以后还讲什么隐私个性啊,大家都在镜头下裸奔呗。
很多教师连自己都没活明白,还想来教学生做人。我看来就是笑话。
做老师就好好教自己本职工作的内容,搞其他的只会让人反感。
看待菜刀一样。
菜刀本身没问题,问题是怎么用菜刀。
技术和产品,是没有问题的,问题在于怎么用。
简而言之,市场思路错了。
学校不是公权力机构,学生是弱势群体。向学校推销,学校购买使用,学生被动接受监控,这个模式是错误的。
换个思路,可能就更好。
产品免费提供给学校,学生和家长自己认为有需求的自行注册购买产品服务。
利润由公司、学校分账,使用效果由学生和家长判断。
从卖监控产品,到提供学习辅助服务。卖产品是一次性交易,卖服务是每年都有新会员。市场更大,利润更多,可持续发展。
在公共区域安装摄像头很正常,不正常的是利用大数据分析和人工智能将一个学生当成冷冰冰的数据,连多少次听课,多少次开小差全部罗列出来,这像极了零几年看到过的一篇科幻小说(忘记名字了)描述的样子,机器监控着人的一切,哪怕是表情不对,都有可能被逮捕……
科技要以人为本,不是以监控人为本。
这是很明显地 在扼杀自由,人不是机器,学习知识也不是流水线,没有灵魂的躯体还能称作为人吗?
我只想说一句话:
WKQNMD 吧!
可能引发学生严重反感而引发负面效果_(:з」∠)_
这个人姿势如此懒散,一看就没认真听讲。
听说喜欢看脱衣舞?信不信我给你装到舞厅里去???
“中国未来最大的矛盾,是理科生的进展太快,文科生跟不上做好配套的矛盾。” 这种套话是一种明显的偷换概念,如果一个技术被大量的用于违背道德的目的,那么这种行为本身就是邪恶的。说的难听点,难道文科生还应该改写道德观念,给理科生擦屁股?
技术本身固然是中立的,但一旦把技术用于邪恶的目的,或者不假思索的使用新技术,放弃对新技术在人性,社会道德和安全性上的考量和讨论,这是极度危险的。
敏感的话题我不多说,但我就问两个问题:
以现在大部分普通高中的教师水平,当一个学生的一举一动,小动作都被监控记录,教师有能力恰当的利用监控系统来促进学生学习吗?如果《熔炉》中的变态也在使用这个系统呢?
李毅吧的吧务的个人信息被港独曝光的连银行卡账户数额的小数点都一清二楚,那么学校的监控系统如何确保学生的隐私?还是大家都裸奔算了?
搞个网银接口,学生逃课自动退本节课学费吗?
然后鼓励高校把引论课砍了,专心讲题。这反倒成好事了……
当然更好的项目是 “课本自动生成 ppt”,那就综合了 nlp 和 cv 两块东西了,估计能做的话早就有教授塞给自己手下的研究生肝出来,自己拿着吃了。
考勤没啥问题,但是这发呆检测。。。不知道旷视有没有给自己的员工用上?
知乎用户 发表 这样真的可行吗,孩子们会不会活的越来越不真实,不敢表述自我? 知乎用户 鲁森林林 发表 建议先赶紧在各个政府服务部门和咨询机构安装,通过 AI 图像识别工作人员是否保持微笑、是否态度良好、服务是否专业、上班有没有淘宝等等, …
“现在去售楼处买房,都得带个头盔!为啥?摄像头‘认识’你!” 前一阵,这样一则新闻引起了轰动:山东济南某楼盘售楼处,一名看房人为了不泄露自己个人信息,头戴摩托头盔去看房。《南方都市报》和《北京日报》等数家媒体的调查显示,售楼处使用了带有面部 …
沙漠开江河 风沙太大,本公号为“洞见大视野” 备用号,欢迎关注,谢谢! 公众号 该公众号已被封禁 电影《窃听风暴》反映就是当年东德政治警察监控人们的故事 二战之后,德国被一分为二为东德和西德,成为苏美两个大国冷战的前沿阵地。双方都在情报刺探 …
知乎用户 沈世钧 发表 在以深度学习为基础的人脸识别技术上,要做到匹配不同年龄的同一个人,方法很简单, 也很粗暴,那就是在 “喂数据” 的时候,刻意的选择一个人的不同维度,包括: 角度 灯光 发型 年龄 … 例如,就年龄来说,在 “造” …
最近成都49中登上了微博热搜,引起了网友们的关注,相信还有很多人和小编之前一样不了解成都49中是啥?怎么回事?为此小编特意在网上整理了关于成都49中的内容,方便您了解其相关信息和来龙去脉。 @人生就像泡沫说:吾儿林唯麒,现就读于成都49中, …