“旷视难题”,人脸识别技术遭遇欧美多国禁止

中国战略新兴产业张孝荣11-09 13:26

01 窘

2015年,在德国汉诺威信息展会开幕式上,马云亲自向包括德国总理默克尔在内的与会者,展示了支付宝的人脸识别支付技术。

由此,这项技术的开发商旷视科技公司进入大众视野,开启了一路绿灯的快进模式。

遗憾的是,直到去年,红灯亮起。旷视的快节奏被打断。

2019年8月25日,旷视向港交所递交上市申请。2020年初,在港交所官网上,旷视的招股书的申请状态为“失效”。2020年6月3日,有消息称,旷视中止了港股上市进程,接下来公司将进一步讨论在港股或者A股上市的可能性。然而,至今1年过去了,旷视IPO消息仍处于“失效”状态,迟迟没有“激活”。

关于IPO受阻原因,外界众说纷纭,主要集中于旷视科技被美国列入实体清单,前途难料。2019年10月8日,美国联邦政府列了一份“黑名单”,将28家中国实体加入“实体管制清单”,禁止这些实体购买美国产品,旷视名列其中。

但我认为实体清单最多算是个黄灯,真正的红灯是另一方面原因——人脸识别这项技术开始受到猛烈质疑。2018年底,亚马逊的人脸识别门铃专利因涉嫌侵犯隐私遭到强烈抗议,2019年6月微软删除了自己未经授权采集来人脸识别数据库,2019年8月,人工智能换脸应用“ZAO”因违规收集人脸数据引发风险争议。

随着人脸识别技术的红灯不断亮起,旷视面临挑战越来越大,怎样做才能令人满意?

 

02 难题

人脸识别技术为啥遭遇红灯?

主要原因是一种基于人的脸部特征进行身份识别的生物识别技术。与其他身份识别技术相比,判别结果更精准、高效和便捷。

但是,这项技术的应用存在隐患。每一个人的面部信息都可能被非法收集、恶意加工、恣意传递和散播。

2019年,旷视科技推出一套“智慧教学”系统,通过摄像头AI捕捉学生的面部细节、动作,将学生听课、阅读、举手、睡觉、玩手机等行为进行记录、统计,来判断学生上课时的状态,给教学打分。网上流传出一段带有旷视logo的课堂监控视频,画面上写着“听课6次、阅读8次、举手6次”等。

不少网友认为这种行为侵犯了学生的隐私权。当时,旷视表示,图片为技术场景化概念演示,仅停留在技术展示阶段,未落地应用。

这种技术之所以让人感到不安,主要有三个原因。

一是强制性刷脸侵犯人类尊严。人脸识别信息属于隐私权法律范畴的个人敏感信息。宪法规定了人格尊严不受侵犯的原则。人格权包括隐私权等一系列具体权利。在一些原本不需要刷脸的场合强制性刷脸,涉嫌侵犯公众隐私权,若不同意刷脸则不合作的霸王条款也是侵犯消费者尊严的做法。“中国人脸识别第一案”的被告方杭州野生动物园,就因使用人脸识别技术作为入园检测手段,消费者以未提前告知与征得同意而私自收集人脸信息为由诉诸法庭,引发了多方关注。

二是数据的保管缺少安全感。许多采集人脸等用户信息的机构缺少安全保管技术,给信息安全埋下隐患。《北京青年报》曾在调查中发现有人在网络商城中公然售卖“人脸数据”,量级高达17万条。有意思的是,这些数据是完全被标注好的,除了人脸位置信息,还有性别、表情情绪、颜值等其他信息。而这些照片对应的被拍摄者,很多都不知道自己的脸竟然被非法采集过;买家,则是一些做计算机视觉或做人脸模型训练的开发者。今年10月1日生效的新版个人信息安全新规,建议企业仅存储摘要信息,删除原始图像,但实际上,这一建议,仅仅是个建议,在现实中基本无法执行。

三是数据确权没有解决。人脸等用户数据所有权属于谁?属于用户本人还是平台还是数据收集者?这是根本性问题,也是个难题,关乎AI产业健康发展与社会治理。截至目前,欧盟于2016年颁布的《一般数据保护条例》被普遍认为是在个人信息保护领域最严格、最详尽的立法成果。该法以列举的方式规定了个人信息主体对因其产生的数据享有一系列权利,包括信息访问权、被遗忘权、更正权、可携带权等,即便是最为详尽的立法,依然对所有权问题进行了回避。这是因为所有权作为物权中最重要也最完整的一种权利,数据所有权一旦确定,采集、流转、交易、保护等环节的各项制度均需围绕其进行设计或调整。

众所周知,用户数据是算法进化和优化的“饲料”,对于人工智能产业的创新发展具有重要意义。在数据没有确权的情形下,茫然利用数据进行AI开发,形同在地雷阵里种庄稼,一旦问题爆发,所有投资将会荡然无存。

风险如此之大,旷视们该当如何?

 

03 真尴尬

旷视一直在冒着风险前进。但它扮演的不是抗击风险的英雄,而是一个看似尴尬的角色。

旷视强调自己是一家AI公司,招股说明书却透露出原本不过是一家刷脸监控技术公司。旷视不断地向公众传达自己是一个AI公司的信息:旷视的核心技术是计算视觉及传感技术相关的人工智能算法,包括但不限于人脸识别、人体识别、手势识别、文字识别、证件识别、图像识别、物体识别、车牌识别、视频分析、三维重建、智能传感与控制等技术。旷视通过底层AI算法引擎和AIoT操作系统的建设实现技术商业化。

实际上呢?旷视卖的不过是基于摄像头监控技术。

旷视把这项给自己产生收入的技术分成三个业务体系,即个人物联网、城市物联网、供应链物联网。近3年来,城市物联网解决方案贡献最大。

2017年、2018年以及2019年上半年,该项收入为1.68亿元、10.57亿元、6.95亿元,分别占同期总收入的53.6%、74.1%、73.2%。

城市物联网是个啥?监控而已。

招股书显示,2019年6月末,公司城市物联网已经覆盖全国112个城市,服务339个客户。公司在街道、学校、小区等人口密集区安装监控摄像头,对人脸数据进行采集和分析。

招股书强调,在构成旷视科技最大收入的“城市物联网”解决方案中,比起“算法”这种技术类的收入,“摄像头及其他传感器”才是重点。

城市物联网的客户是谁?自然是政府,用于“城市及社区管理”。

旷视科技进一步解释了自己的竞争优势:传统的城市及社区管理解决方案供应商,提供的是欠缺计算处理能力的硬件设备,例如网络摄像头,仅能录制及传输视频。而旷视科技则可以在这个基础上进行后续的分析。

然而,视频监控并非一条阳光大道,几年走下来,旷视亏损越来越大。如招股书显示,2016-2019年上半年,旷视科技的净利润分别亏损3.43亿元、7.59亿元、33.51亿元、52亿元。当中仅2019年上半年的净亏损就达到52亿元,和2018年上半年的7.29亿元相较,同比扩大613.3%。

对于还在商业化进程中探索的旷视科技而言,补救越撕越大的亏损口子是一项不小的挑战。

 

04 不安全感

城市物联网带来的麻烦可不小,拉开了无隐私时代的序幕。

随着AI技术与物联网的融合发展,我们要把越来越多的隐私告诉机器,机器会形成各种各样的监控系统,只要有需要,就能查出任何一个人详细的行为清单。你不能对监控系统说谎,而监控系统像上帝一样掌握你的一切信息。

我们如何保证这个系统的权力不被恶意使用呢?

对于这个问题,我们先别急着进入无隐私时代,还有一系列社会道德伦理问题需要答案。

在人类社会,我们向自己同类提供人脸,这是基于对等尊重的社交原则。

但是如果对方不是自然人而是一个冷冰冰的机器呢?如果我们向该机器提供了人脸,那么该机器如何基于对等原则实现尊重?

在城市物联网面前,为什么看个动物,要强制识别人脸?为啥进自家小区,要强制识别人脸?为啥办手机卡的时候,要强制识别人脸?我们在商场花钱消费的时候,凭什么要向一个机构提供自己的人脸呢?我们在往银行存钱办卡的时候,凭什么要向一个机构提供自己的人脸呢?难道货币失去了它的信用职能了吗?

如果理由是安防公共安全,那么商场超市、医院、银行、学校以及各种商业场所,这些曾经安全的场所全都不安全了吗?

是谁在制造不安全感,又是谁在贩卖不安全感?显然,对于城市物联网带来的无隐私时代,人们并没有做好准备。

实际上,“人脸识别”技术引发的抵触早已从个体的科技公司上升到城市管理。就在去年,美国旧金山城市监管委员会投票通过“禁止使用人脸识别”的决定,成为美国第一个对该技术说“不”的城市。这之后,马萨诸塞州的赛默维尔市、加州奥克兰市等也相继宣布禁止人脸识别技术和系统。

IBM今年6月宣布停止销售人脸识别产品,并反对将这项技术应用到大规模监视以及成为种族歧视的帮凶。

因此,AI时代的建设一定要有理性思维,不能没有底线的发展监控技术。

电科技(www.diankeji.com)是一家专注于全球TMT行业的领先资讯媒体。

作为今日头条青云计划、百家号百+计划获得者,2019百度数码年度作者、百家号科技领域最具人气作者、2019搜狗科技文化作者、2021百家号季度影响力创作者,曾荣获2013搜狐最佳行业媒体人、2015中国新媒体创业大赛北京赛季军、 2015年度光芒体验大奖、2015中国新媒体创业大赛总决赛季军、2018百度动态年度实力红人等诸多大奖。

投稿、商务合作请联络微信公众号

声明:本站原创文章文字版权归电科技所有,转载务必注明作者和出处;本站转载文章仅仅代表原作者观点,不代表电科技立场,图文版权归原作者所有。如有侵权,请联系我们删除。

//59087780b049bbb54ef4ba547ea51910