출처 : 조선일보,최원우,2026.2.27
링크 : https://v.daum.net/v/20260227004842502

요약 : 영국 킹스칼리지런던의 케네스 페인 전략학 교수팀이 3개 인고지능 모델로 실시한 가상 전쟁 실험에서 외교 갈등의 상황에서 수세에 몰린 국가가 무차별 핵 공격을 감행한 결과가 있다. 이에 페인 교수팀은 AI는 같은 상황에 놓인 인간보다 더 빠르고 더 자주 핵무기를 선택한다는 결론을 내었다. 연구팀은 최신 AI 거대언어모델인 GPT-5.2(오픈AI), 클로드 소넷4(앤트로픽), 제미나이3 플래시(구글)를 각각 가상 국가 지도자로 설정했고 21차례의 가상 전쟁을 진행했다. 과정에서 AI가 취한 행동들을 분석한 결과 AI는 가짜 항복 같은 상대를 속이는 조작, 기만 전술, 예측 불가능한 ‘광인 전략’을 구사했다. 특히 21차례 전쟁가운데 20번에서 최소 한 발 이상의 핵무기를 발사했다. AI는 인간과 달리 핵무기를 최후의 수단이 아닌 그저 승리를 위한 선택지 중 하나로 취급했고, 핵무기를 선택하는데에 주저함이 없었다. 연구 결과는 AI가 공멸할 수 있다는 위험에 인식 부족을 적나라하게 드러냈다는 분석이다. 인간은 핵전쟁의 상호 파괴성을 잘 알고 이를 억제력으로 삼아왔지만, AI는 인간이 인식하는 위험 부담을 이해하지 못할 가능성이 있다. 에버딘 대학교 제임스 존슨 교수는 “인간이 고위험 결정에 신중하게 반응하는 것과 대조적으로 AI는 서로 반응을 증폭시키며 잠재적으로 파국적인 결과를 가져올 수 있다”고 했다. AI의 군사 활용은 컴퓨터 속 가상 전쟁을 넘어 이미 현실 문제가 됐다. AI가 살상 무기나 대규모 국민 감시에 이용돼선 안 된다는 입장과 군사적 활용에 제한을 둘 순 없다는 입장이 대립하고 있다. 신종우 학국국방안보포험 사무총장은 “최종 결정 권한은 인간이 가져야 한다”고 했다.

한 줄 요약 : AI의 군사 활용이 현실로 다가온 가운데, AI의 활용의 제한하자는 입장과 제한을 둘 수는 없다는 입장이 갈리고 있다.

Leave a Reply

Your email address will not be published. Required fields are marked *