일본 방위성이 인공지능(AI)을 활용한 무기의 연구와 개발을 위한 공식 지침을 처음 마련하고, 자율적 공격이 가능한 ‘치명적 자율무기'(LAWS)의 개발은 엄격히 제한한다고 밝혔다.
방위성은 6일 발표한 지침에서 AI가 인간의 통제 없이 목표물을 자율적으로 선택하고 공격을 수행할 수 있는 무기는 연구 및 개발을 허용하지 않기로 했다. 또 AI 무기 사용에 따른 인간의 책임 소재를 명확히 규정했다.
지침에 따르면, AI 탑재 무기는 ‘고위험’과 ‘저위험’으로 나뉘어 관리된다. 고위험 무기는 AI가 목표물을 직접 선정해 공격하는 무기를 의미하며, 저위험 무기는 공격 과정에서 반드시 인간의 판단과 개입이 이루어지는 무기다.
고위험 무기로 분류될 경우 국제법과 국내법 위반 여부, 그리고 ‘치명적 자율무기’ 해당 여부 등 법률적 측면을 우선적으로 심사한다. 만약 치명적 자율무기로 판정될 경우 연구와 개발이 즉시 중단된다. 또한 기술적 심사를 통해 인간의 무기 통제 가능성과 안전성 여부도 평가한다.
나카타니 겐 방위상은 “AI 활용으로 인한 위험을 최소화하면서 혜택을 극대화할 수 있는 기준을 제시했다”고 밝혔다.
아사히신문은 이번 지침에 대해 “국제사회에서 AI 무기의 위험성에 대한 우려가 높아지는 가운데 일본이 자율무기 규제 기준을 마련한 것”이라며 “한편으로는 무기 개발 과정에서 AI 기술 활용을 촉진하려는 일본 정부의 전략적 의도도 담겨있다”고 분석했다.