世界顶尖科学家协会奖得主:算法带有偏见,需关注公平性与多元化
《第一后裔》的最新热修复补丁,版本1.1.3b和1.1.3c(PS5更新版本1.024)于2024年9月27日部署,无需服务器维护。补丁专注于解决一系列与游戏机制、用户界面和本地化文本错误相关的问题。
界面新闻记者 | 黄景源
界面新闻编辑 | 彭朋
“还有什么工作不可能被AI取代,什么工作可以由AI催生?”面对这个具有普遍性的困惑,计算机科学领域杰出学者乔恩·克莱因伯格(Jon Kleinberg)坦言,“我不知道”。
10月21日,第九期浦江科学 讲坛在复旦大学相辉堂举行,康奈尔大学科学和信息科学讲席教授乔恩·克莱因伯格进行主旨演讲。
乔恩·克莱因伯格是智能科学领域近三十年来的领军人物之一,他的研究跨越了从计算机网络路由到数据挖掘再到生物结构比对等诸多领域。
值得一提的是,乔恩·克莱因伯格在今年9月被授予2024世界顶尖(WLA P ze,下称顶科协奖),以表彰他在计算机科学与社会科学交叉领域作出的开创性贡献,包括他在社会网络和算法公平性领域发挥的智识领导力。
据悉,这是顶科协奖获奖者来上海进行学术交流活动的首场活动,10月25日,2024世界顶尖科学家论坛将在临港新片区举办。
2024年诺贝尔三大科学奖项中,物理学奖和化学奖都与人工智能研究相关。对此,乔恩·克莱因伯格表示,和AI系统之所以强大,是因为它们同时拥有强大的计算资源和海量人类行为数据。但所有科学活动都是人类功能的延伸,如果没有人类的观察和思考,我们就不可能推进这些科学工作。
过去十年以来,技术的发展使互联网的发展进入第三阶段。在这个过程中,算法发挥了至关重要的作用,它们能够处理海量的信息,并从中提取有价值的部分。
随着技术发展,人们对算法决策在、隐私、透明度上的担忧与日俱增。克莱因伯格早在20年前就开始关注并思考这一系列问题。数十年来,他的研究形成了一种特色,即探索作为工具的计算机,在与人的特质互动中所产生的局限、隐患和可能性。
乔恩·克莱因伯格表示,有效利用机器学习和人工智能技术,能让当前以人工智能作为基础的互联网生态体系更为健全。
当前,克莱因伯格致力于探索如何定义及实现算法公平,尤其是在算法辅助人类做决定的场景。
他表示,与人类决策者相比,算法没有直接动机表现出偏见,尽管如此,算法预测中还是存在许多潜在的偏见来源。但是,良好规范的算法可以使偏见和歧视更容易被检测,因此在设计算法时,必须考虑到多元化的公平标准,并开发新的技术方法。
克莱因伯格还强调,除了偏见,算法还可能存在文化单一问题。如果大家都使用同一种算法进行决策,也许会导致决定和文化都高度趋同。在他看来,人类在使用算法工具的时候,设计者、使用者、研究者都需要保持一定的多元性。
新闻援引《中国新一代人工智能科技产业发展报告2024》指出,中国人工智能企业数量已经超过4000家,人工智能已成为新一轮科技革命和产业变革的重要驱动力量和战略性技术。
数据显示,2023年中国人工智能核心产业规模达5784亿元,增速13.9%。我国生成式人工智能的企业采用率已达15%,市场规模约为14.4万亿元。
在被问及对中国人工智能产业的建议时,克莱因伯格表示,计算机领域的特性之一,就是学界产生的思想和在工业环境中最终被证明有用的想法之间,通常存在许多互动。他建议,学界与产业界要保持技术、人才合作,打通产学研链条。