【日本發布人工智能武器研發指南,明确“人類幹預”必要性】
來源:七七
時間:2025-06-08 18:00:00
【日本發布人工智能武器研發指南,明确“人類幹預”必要性】 據日本《朝日新聞》6月7日報道,日本防衛省6日首次制定并發布了關于人工智能(AI)武器研發的“AI适用指南”,以期在管理AI風險的同時推動應用AI技術。關于無人機等AI武器的開發,指南明确提出了“人類責任明确化”等要求。 日本防衛大臣中谷元在6日的記者會上強調:“根據指南内容,可以在降低AI應用風險的同時,最大限度從中受益。” 去年7月,防衛省制定了關于有效利用AI的基本方針,設定了包括“指揮控制”在内的七個重點領域,并明确指出“人類幹預”的必要性。在此基礎上,此次指南提出了在武器研發中涉及AI應用的思路與審查制度。 具體而言,研發對象被劃分為“高風險”和“低風險”兩類。例如,如果AI能夠識别攻擊目标并直接觸發導彈發射,則被劃為“高風險”一類;而如果即使AI能夠識别目标,也仍由人類作出判斷,則被視為“低風險”。 針對“高風險”項目,防衛省将從法律與政策角度審查其研發可行性。若無法遵守國際法或國内法,或者涉及人類無法幹預的緻命性自主武器系統,則不允許推進開發。此外,專家會議将進行技術性審查,從七個方面展開調查。 由于AI武器可能出現錯誤判斷,相關研發管制成為國際社會廣泛讨論的課題。日本政府此次發布指南,旨在通過提供AI風險管理标準,推動國内在武器研發中有效利用AI技術。 熟悉軍事領域相關國際法的京都産業大學教授岩本誠吾對指南評價道:“内容遵循國際社會達成共識的倫理框架,值得肯定。”在此基礎上他指出,在AI迅速發展的背景下,“未來AI可能自主升級,随着科技不斷進步,有必要進行嚴格的法律審查”。(參考消息)