**划重点:**
1. 📄 麻省理工学院的临时委员会发布了一系列关于人工智能治理的政策文件,旨在帮助美国政策制定者更好地监管社会中的人工智能应用。
2. 🧠 主要政策文件提出通过扩展现有监管和责任框架来覆盖人工智能,强调AI提供商需要事先定义应用程序的目的和意图,并呼吁增强新的人工智能工具审计能力。
3. 🌐 政策文件还探讨了人工智能在医学、知识产权、以及“人加”法律问题等领域的治理挑战,以促使人工智能技术在社会中的安全和繁荣应用。
站长之家(ChinaZ.com)12月11日 消息:麻省理工学院的一组领导者和学者组成的临时委员会发布了一系列关于人工智能治理的政策文件,旨在为美国政策制定者提供资源,制定更好的人工智能监管框架。主要政策文件名为《美国人工智能治理框架:打造安全繁荣的人工智能行业》,建议可以通过扩展现有的美国政府机构来监管AI工具,并强调了定义AI工具目的的重要性,以便制定相应的监管规定。
图源备注:图片由AI生成,图片授权服务商Midjourney
“我们国家已经对许多相对高风险的事物进行了监管和治理,”麻省理工学院施瓦茨曼计算学院院长丹·胡滕洛赫表示,“我们并不是说这已经足够,但让我们从已经在监管的地方开始,这是一个实际的方法。”
政策文件强调了人工智能提供商在事先定义应用程序目的和意图方面的重要性。通过这种方式,监管体系可以明确哪些现有的法规和监管机构适用于特定的人工智能工具。此外,文件还讨论了人工智能系统可能存在于多个层次的情况,即技术人员所称的“堆栈”系统,强调了制定责任和监管的复杂性。
政策文件不仅涉及现有机构,还提出增强新的监管能力。其中,文件呼吁对新的人工智能工具进行审计,这可以通过政府发起、用户驱动或源自法律责任诉讼进行。文件还建议制定公共审计标准,可以通过类似于公众公司会计监督委员会(PCAOB)的非营利实体或类似于国家标准与技术研究院(NIST)的联邦实体来建立。
此外,文件还考虑了创建一个新的、由政府批准的“自律组织”(SRO)机构的可能性,该机构的功能类似于由政府创建的金融业监管局FINRA。这样的机构专注于人工智能,可以积累领域特定的知识,以在与迅速变化的人工智能行业互动时保持灵活性和响应能力。
政策文件指出,在人工智能领域还需要解决一些特定的法律问题,如与知识产权相关的版权问题。此外,委员会认识到“人加”法律问题,即人工智能具有超越人类能力的情况,例如大规模监视工具,可能需要特殊的法律考虑。
这一系列政策文件涵盖了多个学科角度对人工智能监管问题的分析,展示了临时委员会致力于从广泛的角度对政策制定产生影响,而不仅仅局限于技术问题。委员会强调了学术机构在科技和社会相互作用方面的专业知识的重要性,认为政策制定者需要思考社会系统和技术的关系。
委员会希望弥合对人工智能持激进态度和持担忧态度的人之间的鸿沟,通过倡导技术的进步伴随着适当的监管,推动人工智能行业的健康发展。