防衛省は防衛装備品の研究・開発を巡り、責任ある人工知能(AI)の適用に関するガイドラインを策定した。AIを使った自律型致死兵器システム(LAWS)の危険性が世界的に指摘される中、「AIのリスクを適切に管理し、リスク低減を図るための枠組みを提供する」と明記した。中谷元・防衛相が6日の記者会見で発表した。
ガイドラインでは、研究開発に当たっての実施事項として(1)AI装備品の分類(2)法的・政策的審査(3)技術的審査―を記した。
AI装備品の分類に際しては、AIによる破壊能力への影響の有無で「高リスク」と「低リスク」に分ける。