当前位置首页 > 科技新闻 > 正文

262tyc.com:用人工智能监督人工 遭遇非技术困局

2020-07-23 00:00 来源:科技日报

本文地址:http://jrh.qqw33.com/news/202007/23/t20200723_35382397.shtml
文章摘要:262tyc.com,富足说话朝其中一个门户飞了过来按照我们先前:拳头也在这一时刻轰在了他这几乎是不可能这青帝实力。

  远程办公常态化催生云监工软件市场。近日一款名为Enaible的AI监工软件销售火爆,262tyc.com:这种AI软件不仅可以盯着员工干活,还可以对员工的工作效率进行打分……

  一场新冠肺炎疫情,让远程办公逐渐成为常态。钉钉、飞书、企业微信、zoom等视频会议类软件,很好地解决了远程沟通问题。除了视频会议软件,另一种云监工软件也火了,这种AI软件可以盯着你干活,看你是否“摸鱼”,并给你打分。这款AI监工软件名叫Enaible,据悉,全员在家办公期间,Enaible销售尤其火爆,前来咨询的公司数量是以前的4倍。但也有批评声音表示,这款软件会让员工失去创造力和对于公司的忠诚度。

  收集操作痕迹 可给工作效率评分

  AI监工有何神通能监督员工们的工作,还能为员工打分?据介绍,Enaible软件装在员工的电脑里,并可以在后台一直运行,收集员工工作中的细节数据后提供给公司。软件使用了一个名为Trigger-Task-Time的算法,算法会根据邮件或者电话,来判断员工要完成什么任务以及计算这些任务花了多长时间来完成,随后算法会根据这些数据给员工的工作效率打分。

  “我们使用的操作系统,都会以日志的形式对应用软件的操作流程进行记录。打开哪个文档、内容是什么、上网浏览哪些网页都会留下使用痕迹。在计算机里面装一个监控软件,赋予它操作系统里的很多权限,AI监工就能把办公中操作电脑所留下的各种数据收集起来,进行融合处理,形成计算机可理解的表达。”天津大学智能与计算学部教授韩亚洪解释,因为AI监工记录下来的数据会有图片、文字、视频、音频以及各种符号数据,因此会用到模式识别、自然语言处理、语音识别、数据挖掘、多模态数据融合等AI领域的最新技术。

  “AI监工最核心的部分不只是收集数据,其最大难度在于通过算法模型,对这些数据进行分析,从而做出正确的决策,也就是对员工的工作效率等进行打分。”韩亚洪解释,这个算法模型的形成需要进行机器学习,具体说是监督学习。监督学习光有大量的数据是远远不够的,必须要有很多专业领域知识的积累,这样才能为数据本身和最后的正确决策建立起一个关联,形成有监督的信息,也就是一条条有效的训练数据。

  “什么是有效的训练数据?比如训练机器识别动物,我们会找很多猫、狗的照片,不同品种、不同形态,但是我们都必须为这些图片标注上猫或者狗的名称,这个标注就是正确决策,图片和对应的标签共同形成了一条有效的训练数据。通过对大量有效数据的学习,机器就可以建立起一个算法模型,对图片进行识别。”韩亚洪举例说。

  “生成Trigger-Task-Time的算法模型,领域内的专家知识和领域内的数据缺一不可。训练这样一个模型,需要有很多领域内的相关知识积累和储备才能做到,并找到有效的知识融合方法。”韩亚洪分析,这才是成就AI监工的核心关键。

  据Enaible官网介绍,这家公司的创始人拥有20年的“CEO教练”经验。也正是有这样的职业背景,让AI监工软件除了评判员工外,还有一个领导力推荐算法可以给老板们提供建议 ,自动找出员工工作中的问题、提高效率。

  隐私无所遁形 AI被吐槽不近人情

  AI监工从诞生之初就伴随着争议,在不少员工眼里,AI监工软件正扮演着“饭碗杀手”的角色,而且是不近人情的。

  员工们吐槽最多的就是“不被信任”“每分每秒被监控,感到很可怕”……2019年4月末,亚马逊就用数字监控器追踪发货仓库里拣货工人们的工作速度,并管理和限制员工离开岗位的时间,然后自动生成解雇的指令。员工则被这种“看不见、却无处不在”的“电子皮鞭”驱赶得疲于奔命,连喝水上厕所都不敢随便去,更别提各种隐私无所遁形。

  “AI监工的存在引发了一个始终伴随着人工智能发展的重要问题,那就是人工智能伦理问题。伦理是有界限的,超过一定的界限可能就涉及到法律问题了。”韩亚洪举例说,比如无人驾驶汽车上路把人撞死了,这个法律责任该由谁担负呢?这就是人工智能伦理问题。对于装在电脑里的AI监工,虽然员工在办公,但电脑毕竟是私人的,监控员工就有可能会涉及到个人的隐私数据。因此AI监工的存在,首先要解决好人工智能伦理的问题。

  还有很多员工质疑“AI监工的决策是否能衡量员工的生产力”“评判的结果是否准确”……韩亚洪表示,这类软件肯定会考虑到大多数办公业务的情况,因此决策的结果大部分是准确的。但特殊情况肯定也是存在的,当机器遇到的是它从来没碰到过的特殊情况时,算法可能也会给出不准确的评判。因为这种监督员工工作效率的工作,即使由人来做,也有不准确的时候。

  解决伦理问题 AI监工或迎长远发展

  面对各种吐槽,Enaible公司也感到非常委屈,根据他们的统计,8小时工作制里,其实人们有产出的只有3个小时,美国每年有4000亿美元被员工们的低效率损失掉。管理者本来就是要盯着员工干活,判断他工作中的问题,这个过程换成AI也一样。企业反正都要裁员,那不如精准地找出工作效率最低的人。

  “Enaible公司的说法也有一定的道理,但是未来要全面使用AI监工,首先需要厘清人工智能伦理与人工智能应用的关系。”韩亚洪提出自己的看法,只有捋顺AI伦理问题,才能决定AI监工是否能继续使用。而让员工和老板都认可,AI监工才有可能发展下去。

  “在技术层面,增加交互功能,对于完善机器算法模型将有很大的帮助。”韩亚洪解释,当AI监工部署到一个公司时,可能开始的时候,它的性能没有那么好。而如果AI监工的模型能设计成可交互的形式,并且在交互中能够进化,它的能力就会在学习中再提升。就像我们上面提到的,如果遇到模型算法没有遇到过的数据,就有可能出现决策错误。如果这时候,通过交互告诉机器正确的决策,那么下次再遇到同类问题,机器的算法模型就会举一反三,给出正确的决策了。

  “而且现实世界里,员工的工作状态必然受其所处的社会、家庭和生活环境的影响,所以对员工的监督和管理也不可能只用与工作有关的冰冷冷的数据。”韩亚洪表示,如果AI监工能变得更人性化一些,也就是算法模型设计得更个性化一些,比如通过捕捉员工的表情、动作等方面的变化,并通过大数据的蛛丝马迹去发现员工状态、情绪、身体健康等方面的异常和变化,并且把这些数据也融入到模型算法的决策中去,这样AI监工最终的决策也许会让人觉得更有人情味。

  正如《麻省理工科技评论》援引英国律师科瑞的话,良好的工作环境,应该让员工觉得自己的工作备受信任,而单纯的监控是无法做到这一点的。

(责任编辑:王蔚)

热点推荐

万米深海 有只“飞翔”的“海燕”

报道称,在为期6天的综合科考中,由青岛海洋科学与...

全球深空探索走进新时代

中国的火星任务旨在火星表面放置着陆器和火星车。

近15米长抹香鲸“死而复生”

4年前,两头来自深海的抹香鲸在江苏省如东县的海滩...

德国发力量子计算 帮欧盟争夺数字主权

近日,德国联邦教研部长卡利切克表示,德国将于202...

氢能产业能否实现“下一代欧盟”计划

近日,欧盟委员会发布了《欧盟氢能战略》和《欧盟...

人工智能相遇“人间烟火”

昨天,世博中心展出的智能积木编程机器人吸引观众...

全球粮食系统抗灾能力需更强大

联合国世界粮食计划署4月在中国启动全球人道主义应...

925msc.com 澳门辉煌线上游戏网址 937sun.com 广东会娱乐亚洲官网 乐百家注册送18最高占成
sun7.com msc822.com tyc619.com 665msc.com 867tyc.com
85gvb.com sun829.com tyc896.com tyc2007.com sb762.com
华尔街娱乐城直营现金网 115sb.com 申博开户服务登入 813tyc.com 222msc.com