世界顶尖科学家 聚焦AI前沿与伦理挑战
来源:人民日报客户端2024年9月28日上午,中国“第三届航天服技术论坛”在重庆召开。在开幕式上,中国载人航天工程办公室面向社会发布登月服征名活动,并首次公开中国登月服外观。
封面新闻记者 张峥 边雪 谭羽清 马晓玉
如果可以给Ch GPT下命令问询制造武器的方法,如果人类跟训练了上百万次的机器人下国际象棋,如果企业用人工智能提供的招聘模板,未来的充斥着AI的世界会变成什么样?如何应对AI带来的潜在风险?
\n\t\t\t\t\t\t\t人工智能将怎样影响人类?\n\t\t\t\t\t\t\t
10月26日,2024世界顶尖科学家论坛分论坛——世界顶尖科学家智能科学大会上,全球顶尖科学家汇聚一堂,讨论“为人类永续发展制定科学的AI治理框架”。
在主旨演讲中,中国科学院院士、北京大学国际机器学习研究中心主任鄂维南,2007图灵奖得主、南方科技大学斯发基斯可信自主系统研究院院长约瑟夫·斯发基斯,2024年世界顶尖科学家协会奖“智能科学或数学奖”获得者、康奈尔大学计算机科学和信息科学讲席教授乔恩·克莱因伯格,分别从不同角度分享了他们的研究成果和思考。
AI助力科学研究:需要学科间合作
AI+科学能迸发出什么样的火花?鄂维南详细介绍了人工智能(AI)在科学研究中的应用。“在人工智能帮助下,我们可以开发出更多更有效的工具。很早以前,我们就发起了学生开源 ,我们期待更多人获益。”新的AI将呼吁合作、打破学科间的壁垒。鄂维南呼吁一种新的研究范式,用更多的有效的数据,来“武装”科学研究。
\n\t\t\t\t\t\t\t鄂维南\n\t\t\t\t\t\t\t
他以材料科学为例,他提到了一个名为“uni-mol”的AI模型,以当前各大智能手机和电视中广泛使用的新型显示技术有机发光二极管(OLED)为例,如果要发现更出色的发光材料,传统材料设计,需要依赖专家经验和大量实验验证,试错成本极高。如果使用AI模型来进行预测和筛选,就可以节约大量的时间和成本。
过去,做实验是进行科学研究的必要方式。现在可以有不一样的期待,“我们可以利用实验来收集数据”然后充分运用算法和大模型的帮助。
技术发展:要符合人类价值观
图灵奖得主约瑟夫·斯发基斯则聚焦于AI伦理问题,深入剖析了AI技术在实际应用中面临的挑战和风险。他指出,随着AI技术的快速发展,其在决策过程中可能存在的安全性和伦理性问题日益凸显。例如,AI系统在处理复杂任务时,可能无法完全符合人类的价值观和道德标准,从而引发一系列社会伦理问题。
\n\t\t\t\t\t\t\t约瑟夫·斯发基斯\n\t\t\t\t\t\t\t
“我们不能忽视AI技术在实际应用中的潜在风险,特别是在涉及个人隐私和数据安全的领域。”这位科学家强调,“为了确保AI的发展能够更好地服务于人类社会,我们需要建立一个全球性的 框架,制定明确的伦理准则。”
他呼吁加强跨学科研究,推动不同领域的专家学者共同参与,形成一套 、系统的AI伦理准则。此外,他还提倡加强公众对AI伦理的认识和理解,提高社会对AI技术应用的接受度和支持度。
“未来,我们需要在技术创新的同时,更加关注其对经济和社会的长远影响,确保技术发展符合人类的共同利益。”这位科学家最后总结道。
算法预测:AI在社会决策中的应用与挑战
2024年世界顶尖科学家协会奖“智能科学或数学奖”获得者、康奈尔大学计算机科学和信息科学讲席教授乔恩·克莱因伯格在论坛上探讨了算法预测在社会决策中的应用与挑战。随着互联网的发展,算法预测已经成为社会决策的重要工具,广泛应用于招聘、风险评估等领域。
\n\t\t\t\t\t\t\t乔恩·克莱因伯格\n\t\t\t\t\t\t\t
克莱因伯格展示了一张社交媒体上用户浏览行为的截图,“算 关注到你的观看行为,预测这可能是你感兴趣的内容,然后理所当然地给你推送同类型内容。”
算法预测中存在偏见和公平性问题。克莱因伯格特别提到,算法预测的结果往往受到数据来源和模型设计的影响。例如,一些公司在招聘过程中使用算法来筛选简历和评估候选人,然而,这些算法往往基于历史数据进行训练,可能导致对某些群体的不公平待遇。
为了应对这些问题,克莱因伯格建议采用多种算法组合,避免单一算法带来的风险。他强调,不同算法之间的互补性可以提高决策的准确性和公平性。“未来的研究需要更多地关注算法的社会影响,确保技术发展能够更好地服务于人类社会。”克莱因伯格总结道。
(本文照片由世界顶尖科学家论坛 提供)
【如果您有新闻线索,欢迎向我们报料,一经采纳有费用酬谢。报料微信关注:ihxd ,报料QQ:3386405712】