-
인공지능 무기 경쟁(Artificial intelligence arms race)인공지능 2024. 5. 26. 01:39
군사 인공지능 무기 경쟁은 두 개 이상의 국가가 치명적인 자율 무기 시스템(LAWS, Lethal autonomous weapons)을 개발하고 배치하기 위한 무기 경쟁입니다. 2010년대 중반부터 많은 분석가들은 더 나은 군사 AI를 위한 글로벌 강대국들 간의 이러한 무기 경쟁이 증가하는 지정학적 및 군사적 긴장에 의해 촉발되었음을 주목하고 있습니다.
AI 무기 경쟁은 때때로 미국, 러시아, 중국 간의 AI 냉전(AI Cold War) 맥락에서 논의됩니다.
1.1. 용어(Terminology)
치명적인 자율 무기 시스템(LAWS, )은 인공지능을 사용하여 인간의 개입 없이 인간 목표물을 식별하고 제거합니다. LAWS는 일상적으로 "도살 로봇(slaughterbots)" 또는 "킬러 로봇(killer robots)"이라고 불립니다. 일반적으로 우수한 인공지능을 위한 경쟁은 "무기 경쟁(arms race)"으로 묘사되기도 합니다. 군사 AI의 이점은 다른 부문의 이점과 겹치며, 국가들은 경제적 및 군사적 이점을 모두 추구합니다.
1.2. 역사(History)
2014년, AI 전문가 스티브 오모훈드로(Steve Omohundro)는 "자율 무기 무기 경쟁이 이미 진행 중"이라고 경고했습니다. Siemens에 따르면, 전 세계 군사 로봇에 대한 지출은 2010년에 51억 달러였고, 2015년에는 75억 달러에 달했습니다.
중국은 2010년대에 인공지능 연구에서 선두 주자가 되었습니다. 파이낸셜 타임스(Financial Times)에 따르면, 2016년에는 처음으로 중국이 유럽 연합 전체보다 더 많은 AI 논문을 발표했습니다. 가장 많이 인용된 논문 상위 5% 내의 AI 논문 수로 제한하면, 중국은 2016년에 미국을 추월했지만 유럽 연합보다 뒤처졌습니다. 2017년 미국 인공지능 진흥협회(AAAI) 회의에서 발표한 연구자의 23%가 중국인이었습니다. Alphabet의 전 회장인 에릭 슈미트(Eric Schmidt)는 중국이 2025년까지 AI 분야에서 선두 국가가 될 것이라고 예측했습니다.
1.3. 위험(Risks)
AI 경쟁 자체는 그 결과와 관계없이 위험 요소를 포함합니다. 개발 팀이 시스템의 안전성을 무시하고 성급하게 개발을 진행하려는 강한 유인이 있습니다. 이는 알고리즘 편향의 증가로 이어질 수 있습니다. 이는 주로 선진 AI 기술을 가장 먼저 개발하는 것이 큰 이점으로 인식되기 때문입니다. 한 팀이 돌파구에 가까워 보이면 다른 팀들은 단축된 절차를 따르고, 주의 사항을 무시하며, 준비가 덜 된 시스템을 배포할 수 있습니다. 일부는 이러한 맥락에서 "경쟁"이라는 용어를 사용하는 것 자체가 이러한 효과를 악화시킬 수 있다고 주장합니다.
AI 무기 경쟁의 또 다른 잠재적 위험은 AI 시스템의 통제를 잃을 가능성입니다. 이는 인공 일반 지능(AGI) 경쟁의 경우 존재론적 위험을 초래할 수 있습니다.
세 번째 위험은 AI 경쟁이 실제로 하나의 그룹에 의해 승리될지 여부입니다. 이는 권력과 기술적 우위가 한 그룹에 집중될 우려와 관련이 있습니다. 미국 정부 보고서는 "AI 기반 능력이 중요한 인프라를 위협하고, 허위 정보 캠페인을 확대하며, 전쟁을 수행하는 데 사용될 수 있다"고 주장하며, "세계 안정성과 핵 억제력이 약화될 수 있다"고 경고했습니다.
1.4. 군사 인공지능에 대한 입장(Stances toward military artificial intelligence)
1.4.1. Russia
러시아 공군 사령관 Viktor Bondarev 장군은 2017년 2월, 러시아가 비행 중 목표를 변경할 수 있는 AI 유도 미사일을 개발 중이라고 밝혔습니다. 러시아 군산 복합체 위원회는 2030년까지 러시아의 전투력의 30%를 원격 제어 및 AI 기반 로봇 플랫폼에서 파생시키는 계획을 승인했습니다. 러시아 국영 언론은 2017년 중반에 AI의 잠재적인 군사적 사용에 대한 보도를 늘렸습니다. 2017년 5월, 러시아 방위 계약업체인 Kronstadt Group의 CEO는 "임무를 자율적으로 수행하고 작업을 분담하며 상호작용하는 UAV 클러스터를 위한 완전 자율 AI 운영 시스템이 이미 존재하며, 언젠가는 전투 구역 위에 드론 떼가 날아다니는 것이 불가피하다"고 말했습니다. 러시아는 Kalashnikov의 "신경망" 전투 모듈과 같은 여러 자율 및 반자율 전투 시스템을 테스트 중입니다. 이 모듈은 기관총, 카메라, 그리고 인간의 개입 없이 자체 목표 판단을 할 수 있는 AI를 포함하고 있습니다.
2017년 9월, 러시아 대통령 블라디미르 푸틴은 16,000개의 러시아 학교에서 100만 명 이상의 학생들을 대상으로 한 국가 지식의 날 연설에서 "인공지능은 러시아뿐만 아니라 인류 전체의 미래입니다... 이 분야에서 리더가 되는 사람은 세계의 통치자가 될 것입니다"라고 말했습니다. 푸틴은 또한 어느 한 개인이 독점하는 것을 방지하는 것이 좋겠지만, 러시아가 AI에서 리더가 된다면 "핵 기술과 같이 다른 세계와 기술을 공유할 것"이라고 말했습니다.
러시아는 군사 AI 개발에 전념하는 여러 조직을 설립하고 있습니다. 2018년 3월, 러시아 정부는 AI 및 빅데이터 컨소시엄, 분석 알고리즘 및 프로그램 기금, 국가 지원 AI 교육 및 교육 프로그램, 전용 AI 연구소, 국가 인공지능 센터 등의 설립을 포함하는 10가지 AI 아젠다를 발표했습니다. 또한, 러시아는 DARPA에 상당하는 자율성 및 로봇 공학에 전념하는 국방 연구 조직인 선진 연구 재단을 설립하고 "러시아 연방군의 로봇화"에 관한 연례 회의를 시작했습니다.
러시아 군대는 반자율 및 자율 차량에 중점을 둔 여러 AI 응용 프로그램을 연구하고 있습니다. 2017년 11월 1일, 연방 평의회 국방 및 안보 위원회 의장 Viktor Bondarev는 "인공지능은 전장에서 병사와 항공기 조종석의 조종사를 대체할 수 있을 것"이라고 공식 성명에서 발표했습니다. Bondarev는 또한 "차량이 인공지능을 갖게 되는 날이 다가오고 있다"고 언급했습니다. 이는 Nerehta라는 무인 지상 차량의 성공적인 테스트 직후에 나온 발언입니다. 러시아는 Nerehta를 AI 연구 및 개발 플랫폼으로 사용하고 있으며, 이 시스템을 전투, 정보 수집 또는 물류 역할에 배치할 계획입니다. 또한, 러시아는 자율 목표 식별 및 잠재적으로 목표 교전을 할 수 있는 무인 지상 차량용 전투 모듈을 구축했으며, AI 기반 자율 시스템의 개발을 계획하고 있습니다.
러시아 군대는 또한 무인 항공기, 해군 및 해저 차량에 AI를 통합할 계획이며, 현재 드론 군집 능력을 개발 중입니다. 원격 감지 및 전자전에서 AI의 혁신적인 사용을 탐구하고 있으며, 적응형 주파수 도약, 파형 및 대응책을 포함하고 있습니다. 또한, 러시아는 국내 선전과 감시, 그리고 미국과 미국의 동맹국을 대상으로 한 정보 작전을 위해 AI 기술을 광범위하게 사용하고 있습니다.
러시아 정부는 치명적인 자율 무기 시스템에 대한 금지를 강력히 거부하며, 그러한 국제적 금지는 무시될 수 있다고 주장하고 있습니다.
1.4.2. 중국(China)
중국은 글로벌 기술 우위를 차지하기 위해 AI의 군민 융합 전략을 추구하고 있습니다. 신미국안보센터(Center for a New American Security)의 Gregory C. Allen이 작성한 2019년 2월 보고서에 따르면, 시진핑 주석을 포함한 중국 지도부는 AI 기술의 최전선에 서는 것이 글로벌 군사 및 경제력 경쟁의 미래에 중요하다고 믿고 있습니다. 중국 군사 관계자들은 상업적 AI 기술을 도입하여 "중국 군대와 글로벌 선진 강대국 간의 격차를 좁히는 것"을 목표로 하고 있다고 밝혔습니다. 실리콘 밸리와 중국 간의 밀접한 관계와 미국 연구 커뮤니티의 개방성은 중국이 서방의 가장 진보된 AI 기술을 쉽게 이용할 수 있게 했습니다. 또한, 중국 산업은 Baidu가 2015년에 주목할 만한 중국어 음성 인식 능력 벤치마크를 통과하는 등 수많은 자국 내 AI 성과를 보유하고 있습니다. 2017년 현재, 베이징의 로드맵은 2030년까지 1,500억 달러 규모의 AI 산업을 창출하는 것을 목표로 하고 있습니다. 2013년 이전에는 중국의 국방 조달이 주로 몇 개의 대기업에 제한되었으나, 2017년 현재 중국은 드론과 인공지능과 같은 민감한 신흥 기술을 종종 민간 스타트업에서 조달하고 있습니다. 2021년 10월 신기술 및 보안 센터(Center for Security and Emerging Technology) 보고서에 따르면, "중국 군대의 AI 장비 공급업체 대부분은 국영 방위 기업이 아니라 2010년 이후 설립된 민간 중국 기술 회사들"이라고 합니다. 이 보고서는 중국의 군사 AI 지출이 매년 16억 달러를 초과한다고 추정했습니다. 2018년 Japan Times는 중국의 연간 민간 AI 투자액이 연간 70억 달러 미만이라고 보도했습니다. 2017년 중국 AI 스타트업은 전 세계 AI 스타트업 투자액의 거의 절반을 차지했으며, 중국은 미국보다 거의 5배 많은 AI 특허를 출원했습니다.
중국은 2016년에 완전 자율 무기와 관련된 기존 국제법의 적절성에 대해 의문을 제기하는 입장문을 발표하여, 이 문제를 제기한 첫 번째 유엔 안전보장이사회 상임이사국이 되었습니다. 2018년, 시진핑 주석은 기초 AI 연구에서 더 큰 국제 협력을 촉구했습니다. 중국 관리들은 드론과 같은 AI가 특히 국제 규범이 없는 상황에서 우발적인 전쟁을 초래할 수 있다고 우려를 표명했습니다. 2019년, 마크 에스퍼 전 미국 국방부 장관은 인간의 감독 없이 생명을 앗아갈 수 있는 드론을 판매한 중국을 강하게 비난했습니다.
1.4.3. 미국(United States)
2014년, 전 국방부 장관 척 헤이글(Chuck Hagel)은 "제3 보상 전략(Third Offset Strategy)"을 제안하며 인공지능의 급속한 발전이 차세대 전쟁을 정의할 것이라고 주장했습니다. 데이터 과학 및 분석 회사 Govini에 따르면, 미국 국방부는 2011년 56억 달러에서 2016년 74억 달러로 인공지능, 빅데이터 및 클라우드 컴퓨팅에 대한 투자를 증가시켰습니다. 그러나 민간 NSF의 AI 예산은 2017년에 증가하지 않았습니다. Japan Times는 2018년에 미국의 민간 투자가 연간 약 700억 달러라고 보도했습니다. 2019년 11월 미국 국가 인공지능 안보 위원회의 '중간 보고서'는 AI가 미국의 기술 군사 우위에 필수적임을 확인했습니다.
미국은 Sea Hunter 자율 전함과 같이 오랜 기간 승무원 없이 운항하고 스스로 항구에 입출항할 수 있도록 설계된 여러 군사 AI 전투 프로그램을 보유하고 있습니다. 2017년부터 미국 국방부의 임시 지침은 자율 무기 시스템이 인간의 생명을 앗아가는 경우 인간 운영자가 개입하도록 요구합니다. 2019년 10월 31일, 미국 국방부 혁신 위원회는 국방부의 인공지능 윤리적 사용을 위한 원칙을 권장하는 보고서 초안을 발표하여 인간 운영자가 항상 '블랙 박스'를 살펴보고 킬 체인 프로세스를 이해할 수 있도록 해야 한다고 권고했습니다. 그러나 이 보고서가 어떻게 구현될지가 주요 관심사입니다.
프로젝트 메이븐(Project Maven)은 드론 비디오에서 사람과 물체를 구별하기 위해 기계 학습과 엔지니어링 인재를 활용하는 펜타곤 프로젝트로, 실시간 전장 지휘 및 통제, 인간 개입 없이 목표를 추적, 태그 및 감시할 수 있는 능력을 정부에 제공합니다. 이 프로젝트는 로버트 O. 워크(Robert O. Work)에 의해 주도되었으며, 그는 중국의 신흥 기술 군사 사용에 대해 우려했습니다. 보고서에 따르면, 펜타곤의 개발은 자가 지정 목표를 공격할 수 있는 AI 무기 시스템으로 작동하지 않습니다. 이 프로젝트는 2017년 4월 26일 미국 국방부 차관보의 메모에 의해 설립되었습니다. 알고리즘 전쟁 교차 기능 팀(Algorithmic Warfare Cross Functional Team)이라고도 불리는 이 프로젝트는 2017년 11월 미국 공군 중장 잭 샤나한(Jack Shanahan)에 따르면 "파일럿 프로젝트, 길잡이, 인공지능의 불꽃을 지피는 역할"로 설계되었습니다. 이 프로젝트의 책임자인 미국 해병대 대령 드류 쿠코(Drew Cukor)는 "사람과 컴퓨터가 공생하여 무기 시스템의 물체 탐지 능력을 향상시킬 것"이라고 말했습니다. 호주의 이안 랭포드(Ian Langford) 등 동맹국들은 UAV와 위성의 센서 데이터를 수집하여 적을 식별할 수 있는 능력으로 프로젝트 메이븐을 주목했습니다. 2017년 7월 두 번째 Defense One Tech Summit에서 쿠코는 "의도적인 워크플로우 프로세스"에 대한 투자가 국방부의 "신속한 획득 권한"을 통해 약 "다음 36개월" 동안 자금을 지원받았다고 말했습니다.
합동 인공지능 센터(Joint Artificial Intelligence Center, JAIC)는 실제 전투에서 사용할 인공지능(특히 엣지 컴퓨팅), 네트워크 오브 네트워크(Network of Networks), AI 강화 통신 사용을 탐구하는 미국 조직입니다. 이 조직은 2018년 6월에 설립된 미국 군대의 하위 부문입니다. 조직의 목표는 "임팩트를 규모로 달성하기 위해 인공지능의 전달 및 채택을 가속화하여 미국 국방부를 변혁하는 것"입니다. 목표는 여러 전투 시스템에 걸친 크고 복잡한 문제 집합을 해결하기 위해 AI를 사용한 다음, 전투 시스템 및 구성 요소가 실시간으로 계속 개선되는 데이터 세트 및 도구 라이브러리에 접근할 수 있도록 하는 것입니다.
1.4.4. 영국(United Kingdom)
2015년, 영국 정부는 치명적인 자율 무기 금지에 반대하며 "국제 인도법이 이미 이 분야에 충분한 규제를 제공한다"고 주장했지만, 영국 군대가 사용하는 모든 무기는 "인간의 감독과 통제 하에" 있을 것이라고 밝혔습니다.
1.4.5. 이스라엘(Israel)
이스라엘은 특히 이스라엘-하마스 전쟁 동안 군사 응용을 위해 AI를 광범위하게 사용합니다. 주요 목표 식별 AI 시스템은 Gospel과 Lavender입니다. Unit 8200에 의해 개발된 Lavender는 주로 하마스와 팔레스타인 이슬람 지하드의 하급 전투원을 식별하고 데이터베이스를 생성하며, 90%의 정확도와 수만 명의 데이터베이스를 보유하고 있습니다. Gospel은 개인보다는 건물과 구조물을 추천합니다. 허용 가능한 부수적 피해와 목표를 제거하는 데 사용되는 무기의 종류는 IDF(이스라엘 방위군) 구성원에 의해 결정되며, 전투원을 집에서도 추적할 수 있습니다.
이스라엘의 Harpy 반레이다 "발사 후 망각" 드론은 지상군에 의해 발사되어, 자율적으로 비행하며 사전에 설정된 기준에 맞는 레이더를 찾아 파괴하도록 설계되었습니다. 인공지능의 적용은 또한 Guardium MK III와 후속 버전과 같은 무인 지상 시스템 및 로봇 차량에서 발전할 것으로 예상됩니다. 이러한 로봇 차량은 국경 방어에 사용됩니다.
1.4.6. 대한민국(South Korea)
2010년에 공개된 한국의 Super aEgis II 기관총은 한국과 중동에서 사용되고 있습니다. 이 무기는 4km 범위에서 이동 표적을 식별, 추적 및 파괴할 수 있습니다. 이론적으로는 인간의 개입 없이 작동할 수 있지만, 실제로는 수동 입력이 필요하도록 보호 장치가 설치되어 있습니다. 한국 제조업체는 "우리의 무기는 사람처럼 잠들지 않고, 어두운 곳에서도 볼 수 있다"며 "우리의 소프트웨어가 표적이 적인지, 민간인인지, 군인인지를 식별할 수 있는 수준에 도달하고자 한다"고 말했습니다.
1.4.7. 유럽 연합(European Union)
유럽 의회는 인간이 치명적인 자율 무기에 대한 감독 및 의사결정 권한을 가져야 한다는 입장을 취하고 있습니다. 그러나 유럽 연합의 각 회원국은 자율 무기의 사용에 대한 입장을 스스로 결정해야 하며, 회원국들의 혼재된 입장이 유럽 연합의 자율 무기 개발 능력에 가장 큰 장애물로 작용할 수 있습니다. 프랑스, 독일, 이탈리아, 스웨덴과 같은 일부 회원국은 치명적인 자율 무기를 개발하고 있습니다. 일부 회원국은 자율 군사 무기의 사용에 대해 결정을 내리지 않았으며, 오스트리아는 이러한 무기의 사용을 금지할 것을 촉구하기도 했습니다.
일부 EU 회원국들은 자동화된 무기를 개발해 왔으며, 개발 중입니다. 독일은 위협에 대해 완전한 자율성으로 1밀리초 이내에 대응할 수 있는 Active Defense System을 개발했습니다. 이탈리아는 자율 무기 시스템을 미래 군사 계획에 통합할 계획입니다.
1.5. 국제 규제 제안(Proposals for international regulation)
자율 무기에 대한 국제 규제는 국제법의 새로운 문제로 떠오르고 있습니다. AI 무기 통제는 효과적인 기술 사양과 결합된 새로운 국제 규범의 제도화, 전문가 커뮤니티의 적극적인 모니터링과 비공식 외교, 그리고 법적 및 정치적 검증 과정을 필요로 할 가능성이 큽니다. 2007년에는 이미 AI 교수 노엘 샤키(Noel Sharkey)와 같은 학자들이 "의미 있는 인간 결정 없이 자율적으로 목표를 찾아 공격할 수 있는 자율 잠수함, 전투기, 전함 및 탱크를 개발하기 위한 하이테크 국가들 간의 무기 경쟁이 발생하고 있다"고 경고했습니다.
옥스퍼드 대학의 마일스 브런디지(Miles Brundage)는 AI 무기 경쟁을 외교를 통해 다소 완화할 수 있을 것이라고 주장했습니다: "다양한 역사적 무기 경쟁에서 협력과 대화가 큰 성과를 거둔 것을 보았습니다." 2017년에는 100명 이상의 전문가가 UN에 치명적인 자율 무기에 대한 문제를 다룰 것을 촉구하는 공개 서한에 서명했습니다. 그러나 2017년 11월 UN 특정 재래식 무기 협약(Convention on Certain Conventional Weapons, CCW) 회의에서 외교관들은 이러한 무기를 정의하는 방법조차 합의하지 못했습니다. CCW 의장이자 인도 대사는 규칙에 대한 합의가 아직 먼 전망이라고 말했습니다. 2019년 기준으로 26명의 국가 원수와 21명의 노벨 평화상 수상자가 자율 무기 금지를 지지했지만, 2022년 현재 대부분의 주요 강대국은 자율 무기 금지를 계속 반대하고 있습니다.
많은 전문가들은 킬러 로봇을 완전히 금지하려는 시도가 실패할 가능성이 높다고 믿습니다. 부분적으로는 조약 위반을 감지하는 것이 매우 어렵기 때문입니다. 하버드 대학교 벨퍼 센터의 2017년 보고서는 AI가 핵무기만큼이나 변혁적인 잠재력을 지니고 있다고 예측했습니다. 이 보고서는 또한 "AI의 군사적 사용 확대를 막는 것은 불가능할 것"이며 "보다 겸손한 목표인 안전하고 효과적인 기술 관리가 추구되어야 한다"고 주장했습니다. 예를 들어, 핵무기에 AI 자폭 스위치를 부착하는 것을 금지하는 것과 같은 조치입니다.
1.6. 자율 무기에 대한 다른 반응(Other reactions to autonomous weapons)
2015년, 퓨처 오브 라이프 연구소(Future of Life Institute)가 치명적인 자율 무기 시스템의 금지를 촉구하는 공개 서한을 발표했으며, 이 서한에는 물리학자 스티븐 호킹(Stephen Hawking), 테슬라의 엘론 머스크(Elon Musk), 애플의 스티브 워즈니악(Steve Wozniak), 트위터 공동 창립자 잭 도시(Jack Dorsey)를 포함한 26,000명 이상의 시민과 인공지능 연구자 스튜어트 러셀(Stuart Russell), 바트 셀먼(Bart Selman), 프란체스카 로시(Francesca Rossi) 등 4,600명 이상의 인공지능 연구자들이 서명했습니다. 퓨처 오브 라이프 연구소는 또한 자율 무기의 위협을 묘사하고 금지를 촉구하는 두 편의 가상 영화, Slaughterbots(2017)와 Slaughterbots - if human: kill()(2021)를 공개했으며, 두 영화 모두 바이럴 히트를 쳤습니다.
셰필드 대학교의 노엘 샤키(Noel Sharkey) 교수는 자율 무기가 결국 이슬람 국가(IS)와 같은 테러리스트 그룹의 손에 넘어갈 것이라고 주장합니다.
1.7. 해체(Disassociation)
많은 서방 기술 회사들은 중국 시장 접근을 잃을까 두려워하여 미국 군대와 너무 밀접하게 연관되는 것을 피합니다. 또한, DeepMind CEO 데미스 하사비스(Demis Hassabis)와 같은 일부 연구자들은 군사 작업에 기여하는 것에 대해 이념적으로 반대합니다.
예를 들어, 2018년 6월 구글의 내부 소식통에 따르면, 고위 임원 다이앤 그린(Diane Greene)은 회사 직원들에게 현재 계약이 2019년 3월에 만료된 후에는 프로젝트 메이븐(Project Maven)을 계속하지 않을 것이라고 밝혔습니다.
인공지능 무기 경쟁
https://en.wikipedia.org/w/index.php?title=Artificial_intelligence_arms_race&oldid=1224618064
이 문서는 2024년 5월 26일 (일) 01:36 (KST)에 마지막으로 편집되었습니다.
수정된 부분은 붉은색으로 표시되었습니다.'인공지능' 카테고리의 다른 글
AI가 게임의 퀘스트 NPC 스토리라인을 혁신하는 방법 (0) 2024.05.27 마스터카드, AI를 활용한 사기 예측으로 신용카드 보안 혁신 (0) 2024.05.27 인공지능(Artificial Intelligence) (0) 2024.05.25 인공지능 규제(Regulation of artificial intelligence) (1) 2024.05.25 AI 서울 정상회의, AI 기업들 새로운 안전 약속 위험 관리 협력 강화 (0) 2024.05.25