
[经济日报] 在AI技术快速发展的背景下,机器人学的第一原则“不得伤害人类”受到挑战。随着AI在军事和安全领域的应用扩大,这一原则的实际执行受到质疑。
3月9日,Anthropic对美国政府提起诉讼,要求取消其被列为“供应链风险”企业的决定。该公司反对其AI被用于大规模监控或自主杀伤武器,导致与美国国防部的冲突。
美国国防部坚持AI应在所有合法用途中不受限制地使用。上月27日,Anthropic被列为“供应链风险”企业。
AI在中东军事行动中的应用也在增加。外媒报道,美国和以色列在战争初期的空袭中使用AI分析伊朗军事指挥部的动向。
AI通过分析卫星图像和通信信息,快速识别目标并确定攻击优先级,提高了军事行动的速度和准确性。
问题在于技术的应用范围。若AI发展到自主选择攻击目标的阶段,伦理争议将更加复杂。
在韩国,国防AI应用的努力正在进行。国家AI战略委员会公布的“2026年AI财政项目”显示,国防领域预算约1000亿韩元,用于AI技术开发。
韩国国内也在讨论AI伦理问题,强调在技术竞争力和产业生态系统建设的同时,需制定负责任的AI应用制度。
1月27日,33名国会议员提出“国防人工智能法案”,以填补现有法律在国防领域的空白。国会议员柳永元表示,该法案将为国防AI的稳定应用和可持续发展提供框架。
随着AI在战场上扮演“头脑”角色,技术发展速度与伦理规范同步演变的必要性日益增加。
※ 本报道经人工智能(AI)系统翻译与编辑。


