站长之家 - 业界 2022-04-18 09:30

英特尔称其检测学生情绪的AI为教学工具 其他人则认为“在道德上应受谴责”

据Protocol报道,当大学教师Angela Dancey想要解读她的大一英语学生是否理解她在课堂上想要表达的内容时,他们的面部表情和肢体语言并没有透露出太多信息。“即使在面对面的课堂上,学生也很难读懂。”伊利诺伊大学芝加哥分校的高级讲师Dancey说:“通常情况下,本科生不会通过他们的脸来传达什么,尤其是缺乏理解。”

Dancey使用了一些方法,例如要求学生在讲座或讨论后找出他们的“最难懂的问题”--她说学生仍然在为一个概念或想法而挣扎。她说:“我要求他们把它写下来,分享给大家,然后我们在课堂上解决这个问题,让大家受益。”

英特尔和销售虚拟学校软件Class的Classroom Technologies公司认为可能有更好的方法。这两家公司已经合作,将英特尔开发的基于人工智能的技术与运行在Zoom之上的Class整合起来。英特尔声称,其系统可以通过评估学生的面部表情以及他们与教育内容的互动方式,检测出学生是否感到无聊、分心或迷惑。

“我们可以给老师提供额外的见解,让他们更好地沟通,”教室技术公司的联合创始人兼首席执行官Michael Chasen说,在整个大流行中,教师在虚拟教室环境中与学生接触时遇到了困难。

他的公司计划测试英特尔的学生参与分析技术,该技术通过计算机摄像头和计算机视觉技术捕捉学生的面部图像,并将其与学生当时正在进行的工作的背景信息相结合,以评估学生的理解状态。帮助开发该技术的英特尔研究科学家Sinem Aslan说,英特尔希望将该技术转化为它可以更广泛地分发的产品。

Aslan说:“我们正在努力实现大规模的一对一辅导,”他补充说,该系统旨在帮助教师识别学生何时需要帮助,并告知他们如何根据学生与教育内容的互动情况改变教育材料。 Aslan说:“高度的无聊感将导致(学生)完全脱离教育内容。”

但批评者认为,不可能根据一个人的面部表情或其他外部信号来准确判断他是否感到无聊、困惑、快乐或悲伤。

一些研究人员发现,由于人们通过几十或几百个微妙而复杂的面部表情、身体姿态或生理信号来表达自己,用一个单一的标签来分类他们的状态是一种不适合的方法。其他研究表明,人们沟通情绪的方式,如愤怒、恐惧和惊讶,在不同的文化和情况下是不同的,而且他们表达情绪的方式在个人层面上会有波动。

“学生有不同的方式来呈现他们内心的想法,”长期从事教育工作的托德-里奇蒙德说,他是技术和叙事实验室的主任,也是帕尔迪-兰德研究生院的教授。他说:“那个学生在那一刻心不在焉,可能是他们在生活中那一刻的适当和必要的状态。”例如,如果他们正在处理个人问题。

DO}51D2X)[KQSNBGG4N`4W2.png

有争议的情感人工智能渗入日常科技领域

课堂只是有争议的"情感人工智能"进入日常科技产品并引起投资者兴趣的一个领域。它也正在渗入送货和客运车辆以及虚拟销售和客户服务软件。在Protocol上周关于在销售电话中使用这种技术的报告之后, Fight for the Future 发起了一场运动,敦促Zoom公司不要在其几乎无处不在的视频会议软件中采用这种技术。

Chasen说,在目前的早期阶段,还不清楚英特尔的技术将如何与班级软件整合,他说他预计公司将与已经合作的学院之一合作,评估英特尔的系统。Chasen告诉Protocol,Classroom Technologies 公司并没有付钱给英特尔来测试这项技术。Classroom Technologies 公司得到了投资者的支持,包括美国橄榄球联盟四分卫汤姆-布雷迪、美国在线联合创始人史蒂夫-凯斯和Salesforce Ventures。

英特尔已经建立了伙伴关系,以帮助分发它所建立的其他新生形式的人工智能。例如,为了实现一个系统的产品化,将显示关节和骨骼运动的数据转化为监测和改善运动表现的分析,该公司已经与普渡大学和足球球探应用程序AiScout合作。

教育工作者和宣传团体已经就学校为识别和安全目的而部署的面部识别系统对学生的过度监视和隐私侵犯发出了警报。这些担忧已经加速,因为基于人工智能的软件在大流行期间比以往任何时候都更频繁地使用,包括监测学生行为的技术,希望在虚拟测试期间防止作弊,以及跟踪学生在笔记本电脑上查看的内容,努力检测他们是否有自我伤害的风险的系统。

课堂已经跟踪了学生在课程中举手的频率,并提供了一个"监考人查看"的功能,如果学生同意与教员分享他们的桌面屏幕,教师就可以监控学生在他们的电脑上看什么。

Chasen说:“我认为我们必须对人们的个人权利非常敏感,并且不能对这些系统进行过度的干涉。”

在过去几年里,随着虚拟课堂成为常态,教育工作者之间出现了一场关于是否要求学生在上课时打开相机的辩论。今天,在Dancey的英语课程中,摄像头是可选的,部分原因是在虚拟环境中,学生可以通过麦克风或通过聊天与教师交流。

但为了捕捉学生的面部表情,英特尔的技术需要打开这些摄像头。

"关于打开摄像头的事情,它几乎成了一个社会公正的问题,"Dancey说。她说,不仅一些学生担心别人看到他们的住处或生活方式,而且启用摄像头会耗费电力,这对使用移动热点连接上课的学生来说是个问题。

"这是一种对隐私的侵犯,而且还有可访问性问题,因为打开你的摄像头会消耗大量的带宽。这实际上可能会让他们花钱去做这件事,"Dancey说。

《消费者报告》的政策分析师Nandita Sampath说:“学生不应该对他们在课堂上的样子进行监督。”她说,她想知道,如果英特尔的系统导致负面后果,学生是否有能力对不准确的结果提出异议。她说:“这些公司声称他们能够评估或预测什么认知和情绪状态,问责制是什么?”

Aslan说,英特尔技术的目标不是监视或惩罚学生,而是指导教师并提供额外的信息,以便他们能够更好地了解学生何时需要帮助。"我们并没有把这项技术作为一个监视系统来启动。事实上,我们不希望这项技术成为一个监视系统,"Aslan说。

Sampath说,英特尔的技术可能被用来判断或惩罚学生,即使这不是他们的本意。她说:“也许他们可能不打算让这个成为最终的决策者,但这并不意味着教师或管理者不能以这种方式使用它。”

Dancey说,教师也担心监控被用来对付他们。她说:“通常情况下,监视被用来对付教员,这真的很不公平。我不认为这是偏执的说法,特别是如果它要衡量'学生参与'--TM,引号--如果我升职或任期,这将是我评价的一部分?他们会不会说,'某某的理解力商数很低'?”

当英特尔在物理教室环境中测试该系统时,一些参与研究的教师认为它提供了有用的信息。根据英特尔提供的一份文件,一位教师说:“我能够见证我如何抓住学生的一些情绪挑战,这是我[之前]无法预见的。”

但是,尽管一些教师可能发现它很有帮助,Dancey说她不想使用英特尔的系统。"我认为大多数教师,尤其是大学级别的教师,会发现这种技术在道德上应受到谴责,就像panopticon。坦率地说,如果我的机构提供给我,我会拒绝它,如果我们被要求使用它,我会对继续在这里工作三思而行,"她说。

心理学家的AI数据预处理

Aslan说,在这个早期阶段,英特尔的目标是找到实施该技术的最佳方法,以便它对教师最有用。"我们如何使它与教师的日常工作相一致?"

英特尔开发了其自适应学习分析系统,将学生在真实的课堂上使用带有3D摄像头的笔记本电脑收集的数据纳入其中。为了标记用于训练其算法模型的基础真实数据,研究人员聘请了心理学家,他们观看了学生的视频,并对他们在表情中检测到的情绪进行了分类。

“我们不希望以任何假设开始。”英特尔公司的机器学习研究员Nese Alyuz Civitci说:“这就是为什么我们聘请了主题专家来标记数据。研究人员只在三个标签者中至少有两个同意应该如何对学生的表情进行分类时才使用数据。”

“看到这些情绪真的很有趣--这些状态真的很微妙,它们是非常微小的差异,”Civitci说。“对我来说,识别这些差异真的很困难。”

Aslan说,研究人员不是根据英特尔的人工智能模型是否准确反映了学生的实际情绪来评估它们,而是“将其定位为教师能在多大程度上信任这些模型的工具性或程度”。

“我不认为这是尚未完全达到成熟的技术,”Chasen说,关于英特尔的系统。“我们需要看看结果是否与学生的表现有关,看看我们是否不能从中获得对教员有用的数据。这就是我们正在测试找出的结果。”

他说,最终,英特尔系统将提供一个数据,课堂技术公司及其客户将把这个数据与其他信号结合起来,形成对学生的整体评估。

他说:“从来没有一个数据。”他还建议,英特尔技术所揭示的信息不应该在没有背景的情况下单独用于判断学生的表现,例如,“如果人工智能说他们不注意,而他们的成绩都是A。”

推荐关键词

24小时热搜

查看更多内容

大家正在看