第109章 应对“ai威胁论”,林风的公开回应(2/3)
融时报》、《自然》、《科学》等全球顶级媒体和学术期刊。
信中,林风首先坦诚地承认并回应了公众对于ai风险的担忧:
“……我们充分理解并尊重社会各界对人工智能潜在风险的关切。无论是就业结构的变迁、算法可能带来的偏见、数据隐私的挑战,还是关于高级人工智能可控性、安全性的终极拷问……这些都是真实存在、且需要我们全人类共同面对的重大议题。忽视或回避这些问题,都是不负责任的……”
接着,他着重强调了ai技术巨大的、积极的潜力,并列举了未来智能正在努力的方向:
“……但我们更坚信,ai技术本身蕴藏着解决人类面临的诸多重大挑战的巨大潜力。它可以让教育资源匮乏地区的孩子获得公平的学习机会(未来课堂);它可以帮助医生更早发现疾病、加速新药研发(神农、ai制药);它可以优化城市运行、节约宝贵资源(交通大脑、智能电网);它可以帮助我们寻找失散的亲人(团圆ai);它甚至可能在应对气候变化、探索宇宙奥秘等领域,扮演关键角色……”
然后,林风系统性地阐述了未来智能科技所秉持的“负责任ai发展观”的核心原则:
“1 安全可控是最高准则: 我们投入巨额资源进行ai安全技术的研究,确保我们开发的每一个ai系统,尤其是高级ai系统,都处于严格的可控范围之内,并设置多重‘刹车’机制。”
“2 人类福祉是最终目标: 我们的技术发展,始终以提升人类福祉、促进社会进步为最终依归,坚决反对将ai技术用于任何危害人类、破坏和平的用途。”
“3 公平普惠是价值导向: 我们致力于消除算法偏见,关注ai技术可能带来的社会公平问题,并通过教育公平计划、公益项目等方式,努力让ai发展的红利惠及更广泛的人群。”
“4 透明可释是努力方向: 我们正在积极研究可解释性ai(expable ai, xai)技术,努力让ai的决策过程不再是‘黑箱’,提升其透明度和可信赖度。”
“5 开放协作是必由之路: ai的安全与治理,绝非一家公司、一个国家能够独立完成。我们呼吁全球的科研机构、科技企业、政府组织
本章还未完,请点击下一页继续阅读>>>