-
인공지능 규제(Regulation of artificial intelligence)인공지능 2024. 5. 25. 21:46
인공지능(AI)의 규제는 인공지능을 촉진하고 규제하기 위한 공공 부문 정책과 법률의 개발을 의미하며, 이는 알고리즘의 광범위한 규제와 관련이 있습니다. AI의 규제 및 정책 환경은 전 세계적으로 새롭게 떠오르는 문제로, 유럽연합과 같은 정부 규제 권한을 가진 기관 및 IEEE, 경제협력개발기구(OECD)와 같은 초국가적 기구에서 논의되고 있습니다. 2016년 이후, 기술에 대한 사회적 통제를 유지하기 위해 AI 윤리 지침이 다수 발표되었습니다. 규제는 AI를 장려하고 관련된 위험을 관리하기 위해 필요하다고 여겨집니다. 규제 외에도, AI를 배포하는 조직은 신뢰할 수 있는 AI 원칙에 따라 신뢰할 수 있는 AI를 창출하고 배포하는 데 중심적인 역할을 해야 하며, 위험을 완화하기 위해 책임을 져야 합니다. 검토 위원회와 같은 메커니즘을 통한 AI 규제는 AI 통제 문제에 접근하는 사회적 수단으로도 볼 수 있습니다.
스탠퍼드 대학의 AI 인덱스에 따르면, 127개 조사국에서 통과된 AI 관련 법률의 연간 수는 2016년 1건에서 2022년 37건으로 급증했습니다.
1.1. 배경(Background)
책임 있는 인공지능(AI), AI 윤리, 소비자 보호 및 사이버 보안 분야의 전문가와 옹호자들은 최소한 1960년대부터 AI 개발에 대한 가드레일(보호 장치)의 필요성을 주장해 왔습니다. 2017년, 엘론 머스크(Elon Musk)는 AI 개발에 대한 규제를 촉구했습니다. NPR에 따르면, 테슬라의 CEO인 머스크는 자신의 산업에 영향을 미칠 수 있는 정부 감시를 옹호하는 데 대해 "분명히 기뻐하지는 않았다"고 하지만, 전혀 감시 없이 가는 것의 위험이 너무 높다고 믿었습니다. "보통 규제는 많은 나쁜 일이 발생하고 공공의 외침이 있은 후 수년이 지나서야 규제 기관이 설립됩니다. 이는 과거에는 나쁘지만 문명의 존재에 근본적인 위험을 대표하지 않았습니다." 이에 대해 일부 정치인은 아직 개발 중인 기술을 규제하는 지혜에 대해 회의적인 입장을 표명했습니다. 인텔의 CEO 브라이언 크르자니치(Brian Krzanich)는 머스크와 2017년 2월 유럽연합(EU) 의원들의 AI 및 로봇 규제 제안에 대해 AI가 아직 초기 단계에 있으며, 기술을 규제하기에는 너무 이르다고 주장했습니다. 많은 기술 회사는 AI에 대한 강력한 규제에 반대하며 "일부 회사들은 AI에 대한 규칙을 환영한다고 말하면서도, 유럽에서 만들어지고 있는 것과 같은 강력한 규제에는 반대한다"고 주장했습니다. 일부 학자들은 기술 자체를 규제하려는 시도 대신, 알고리즘 테스트와 투명성에 대한 요구사항을 포함하는 공통 규범을 개발하는 것을 제안했습니다.
2022년 이프소스(Ipsos) 설문 조사에서 AI에 대한 태도는 국가별로 크게 달랐습니다. 중국 시민의 78%가 "AI를 사용하는 제품과 서비스가 단점보다 장점이 더 많다"고 동의한 반면, 미국인의 경우 35%만이 동의했습니다. 2023년 로이터/이프소스(Reuters/Ipsos) 설문 조사에서는 61%의 미국인이 AI가 인류에 위험을 초래한다고 동의한 반면, 22%는 동의하지 않았습니다. 2023년 폭스 뉴스(Fox News) 설문 조사에서는 35%의 미국인이 연방 정부가 AI를 규제하는 것이 "매우 중요하다"고 생각했으며, 추가로 41%는 "어느 정도 중요하다"고 생각했습니다. 반면 13%는 "별로 중요하지 않다"고, 8%는 "전혀 중요하지 않다"고 응답했습니다.
1.2. 관점(Perspectives)
인공지능(AI) 규제는 AI를 촉진하고 규제하기 위한 공공 부문의 정책과 법률을 개발하는 것입니다. 규제는 이제 일반적으로 AI를 장려하고 관련된 위험을 관리하기 위해 필요하다고 간주됩니다. 공공 행정 및 정책 고려 사항은 주로 기술적 및 경제적 영향과 신뢰할 수 있고 인간 중심의 AI 시스템에 초점을 맞추고 있지만, 인공지능 초지능의 규제도 고려됩니다. 규제의 기본 접근 방식은 머신 러닝 알고리즘의 입력 데이터, 알고리즘 테스트 및 결정 모델 수준에서의 위험과 편향에 초점을 맞추며, 출력의 설명 가능성에도 중점을 둡니다.
AI 규제를 위한 법적 접근 방식으로는 하드 법률과 소프트 법률이 있습니다. 일부 법학자들은 AI 규제에 대한 하드 법률 접근 방식이 상당한 도전에 직면해 있다고 언급합니다. 도전 과제 중 하나는 AI 기술이 빠르게 진화하여 기존 법률과 규제가 신흥 응용 프로그램과 그에 따른 위험 및 혜택을 따라잡지 못하는 '속도 문제'가 있다는 것입니다. 또한 AI 응용 프로그램의 다양성은 기존 규제 기관의 관할 범위가 제한되어 있어 도전 과제가 됩니다. 대안으로, 일부 법학자들은 소프트 법률 접근 방식이 신흥 및 진화하는 AI 기술과 초기 응용 프로그램의 요구를 더 유연하게 충족시킬 수 있기 때문에 유망하다고 주장합니다. 그러나 소프트 법률 접근 방식은 종종 실질적인 집행 잠재력이 부족합니다.
카슨 슈미트(Cason Schmit), 메건 도어(Megan Doerr), 제니퍼 와그너(Jennifer Wagner)는 특정 AI 객체(즉, AI 모델 및 훈련 데이터 세트)에 지적 재산권(즉, 카피레프트 라이선싱)을 활용하고 집행 권리를 지정된 집행 기관에 위임하여 준정부 규제 기관을 만드는 것을 제안했습니다. 그들은 AI가 지정된 윤리적 관행 및 행동 강령(예: 소프트 법률 원칙)을 준수해야 하는 조건으로 라이선스가 부여될 수 있다고 주장합니다.
AI 규제는 기본 원칙에서 파생될 수 있습니다. 2020년 버크만 클라인 인터넷 및 사회 센터의 기존 원칙 세트(예: 아실로마 원칙 및 베이징 원칙)에 대한 메타 리뷰에서는 프라이버시, 책임, 안전 및 보안, 투명성 및 설명 가능성, 공정성 및 비차별, 기술의 인간 통제, 전문적 책임, 인류 가치 존중 등의 8가지 기본 원칙을 확인했습니다. AI 법률 및 규제는 자율 지능 시스템의 관리, 시스템에 대한 책임 및 책임, 프라이버시 및 안전 문제의 세 가지 주요 주제로 나뉩니다. 공공 행정 접근 방식은 AI 법률 및 규제, AI 윤리 및 'AI 사회' 간의 관계를 보고 있으며, 이는 인력 대체 및 변환, AI에 대한 사회적 수용 및 신뢰, 인간과 기계 간의 상호 작용의 변화를 포함합니다. AI의 관리 및 규제를 위한 공공 부문 전략 개발은 지역, 국가 및 국제 수준에서 필요하며, 공공 서비스 관리 및 책임부터 법 집행, 의료(특히 인간 보장 개념), 금융 부문, 로봇공학, 자율 차량, 군사 및 국가 안보, 국제법에 이르기까지 다양한 분야에서 필요합니다.
헨리 키신저(Henry Kissinger), 에릭 슈미트(Eric Schmidt), 다니엘 허튼로처(Daniel Huttenlocher)는 2021년 11월 "AI 시대의 인간"이라는 공동 성명을 발표하며 정부 위원회를 통해 AI를 규제할 것을 촉구했습니다.
1.2.1. AI 제어 문제에 대한 대응(As a response to the AI control problem)
AI 규제는 AI 제어 문제(장기적으로 유익한 AI를 보장할 필요성)를 관리하기 위한 긍정적인 사회적 수단으로 볼 수 있습니다. 다른 사회적 대응인 아무 것도 하지 않거나 AI를 금지하는 것이 비실용적이라고 간주되고, 인간의 능력을 강화하는 트랜스휴머니즘(transhumanism) 기술(예: 뇌-컴퓨터 인터페이스(brain-computer interfaces))을 사용하는 접근 방식은 잠재적으로 보완적일 수 있습니다. 인공지능 일반(AGI) 연구 규제는 대학 또는 기업에서 국제 수준에 이르는 심의 위원회의 역할에 중점을 두고 AI 안전에 대한 연구를 장려하는 것과 함께, 차별적 지적 발전(보호 전략을 우선시하는 AI 개발 전략) 또는 AGI 군비 통제를 수행하기 위한 국제 대규모 감시를 수행하는 가능성에 중점을 둡니다. 예를 들어, 'AGI 보모(AGI Nanny)'는 위험한 초지능(superintelligence)의 생성과 전 세계 금융 시스템의 전복과 같은 인간 복지에 대한 주요 위협을 방지하기 위해 인간의 통제하에 있을 수 있는 전략으로 제안되었습니다. 이는 인간보다 똑똑하지만 초지능은 아닌 AGI 시스템을 대규모 감시 네트워크에 연결하여 인류를 모니터링하고 위험으로부터 보호하는 것을 목표로 합니다. 의식이 있는 윤리적으로 인식하는 AGI의 규제는 기존 인간 사회와의 통합 방법에 중점을 두며, 그들의 법적 지위와 도덕적 권리에 대한 고려로 나뉩니다. AI 규제는 AGI 개발을 방해할 위험이 있는 제한적인 것으로 간주되었습니다.
1.3. 글로벌 가이드(Global guidance)
2017년경부터 AI 개발을 규제하기 위한 글로벌 거버넌스 위원회의 개발이 제안되었습니다. 2018년 12월, 캐나다와 프랑스는 G7의 지원을 받는 인공지능 국제 패널을 설립할 계획을 발표했으며, 이는 기후 변화에 관한 국제 패널을 모델로 삼아 AI가 사람과 경제에 미치는 글로벌 영향을 연구하고 AI 개발을 조정하는 역할을 맡았습니다. 2019년, 이 패널은 인공지능 글로벌 파트너십(GPAI)으로 개명되었습니다.
GPAI(Global Partnership on AI)는 2020년 6월에 출범하여 AI가 인간의 권리와 민주적 가치를 준수하며 개발될 필요가 있음을 강조했습니다. 이는 OECD 인공지능 원칙(2019)에 명시된 대로 기술에 대한 대중의 신뢰와 신뢰를 보장하기 위한 것입니다. GPAI의 15개 창립 회원국은 호주, 캐나다, 유럽연합, 프랑스, 독일, 인도, 이탈리아, 일본, 대한민국, 멕시코, 뉴질랜드, 싱가포르, 슬로베니아, 미국, 영국입니다. 2023년에는 GPAI가 29명의 회원국을 보유하고 있습니다. GPAI 사무국은 프랑스 파리에 있는 OECD에서 주최합니다. GPAI의 임무는 네 가지 주제를 다루며, 이 중 두 가지는 인공지능 발전을 위한 몬트리올 국제 전문 센터에서 지원합니다. 이는 책임 있는 AI와 데이터 거버넌스를 포함합니다. 파리에 있는 해당 센터는 미래의 일자리, 혁신 및 상업화에 관한 두 가지 주제를 지원합니다. GPAI는 또한 COVID-19 팬데믹에 대응하기 위해 AI를 활용하는 방법을 조사했습니다.
OECD AI 원칙은 2019년 5월에 채택되었으며, G20 AI 원칙은 2019년 6월에 채택되었습니다. 2019년 9월 세계경제포럼은 'AI 정부 조달 지침' 10가지를 발표했습니다. 2020년 2월, 유럽연합은 AI를 촉진하고 규제하기 위한 초안 전략 보고서를 발표했습니다.
유엔(UN)에서는 여러 기관이 AI 규제와 정책의 측면을 홍보하고 논의하기 시작했으며, UNICRI 인공지능 및 로봇 센터가 포함됩니다. INTERPOL과 협력하여 UNICRI 센터는 2019년 4월 "법 집행을 위한 인공지능 및 로봇 공학" 보고서를 발행했고, 2020년 5월 후속 보고서 "책임 있는 인공지능 혁신을 향하여"를 발표했습니다. 2019년 11월 유네스코의 40차 과학 세션에서는 "인공지능 윤리에 관한 글로벌 표준 설정 문서"를 달성하기 위한 2년간의 과정이 시작되었습니다. 이 목표를 달성하기 위해 유네스코 포럼과 AI 관련 회의가 개최되어 이해관계자의 의견을 수집했습니다. 유네스코 임시 전문가 그룹의 인공지능 윤리에 관한 권고 초안이 2020년 9월에 발행되었으며, 입법상의 격차를 메우기 위한 요구가 포함되었습니다. 유네스코는 2021년 11월 총회에서 AI 윤리에 관한 국제 문서를 채택하기 위해 이를 제출했으며, 이후 채택되었습니다. 유엔은 AI의 글로벌 관리에 진전을 이루고 있지만, AGI 존재적 위험을 관리할 수 있는 기관적 및 법적 역량은 더 제한적입니다.
국제전기통신연합(ITU)의 AI for Good 이니셔티브는 40개의 유엔 자매 기관과 협력하여 AI의 실용적인 적용을 식별하고 이를 글로벌 개발 우선순위로 확장하는 것을 목표로 하는 글로벌 플랫폼입니다. 이는 건강, 기후, 성평등, 포용적 번영, 지속 가능한 인프라 등 여러 글로벌 개발 우선순위에 긍정적인 영향을 미치기 위해 AI 개발을 촉진하는 행동 지향적인 글로벌 및 포괄적인 유엔 플랫폼입니다.
최근 연구에 따르면 각국은 국가 사이버 방어를 위한 도구로 AI를 사용할 것입니다. AI는 방어 목적으로 사용될 수 있으므로, 사이버 무기 산업의 새로운 요소로 간주됩니다. 따라서 학자들은 다른 군사 산업과 유사한 규정을 수립할 것을 권고합니다.
1.4. 지역 및 국가 규제(Regional and national regulation)
AI 규제 및 정책 환경은 전 세계적으로 지역 및 국가 관할권에서 새로운 문제로 부상하고 있습니다. 예를 들어, 유럽연합과 러시아에서 그러한 움직임이 두드러집니다. 2016년 초부터 많은 국가, 지역 및 국제 당국이 AI에 대한 전략, 행동 계획 및 정책 문서를 채택하기 시작했습니다. 이러한 문서들은 규제와 거버넌스뿐만 아니라 산업 전략, 연구, 인재 및 인프라와 같은 다양한 주제를 다루고 있습니다.
각국은 이 문제를 다양한 방식으로 접근하고 있습니다. 세계에서 가장 큰 세 경제권에 대해 "미국은 시장 주도 접근 방식을 따르고, 중국은 국가 주도 접근 방식을 발전시키며, EU는 권리 주도 접근 방식을 추구하고 있다"고 말할 수 있습니다.
1.4.1. 오스트레일리아(Australia)
2023년 10월, 오스트레일리아 컴퓨터 협회(Australian Computer Society), 오스트레일리아 비즈니스 협의회(Business Council of Australia), 오스트레일리아 상공회의소(Australian Chamber of Commerce and Industry), Ai 그룹(Ai Group, 일명 Australian Industry Group), 오스트레일리아 중소기업 협의회(Council of Small Business Organisations Australia), 테크 협의회(Tech Council of Australia)가 공동으로 AI 전략에 대한 국가적 접근 방식을 촉구하는 공개 서한을 발표했습니다. 이 서한은 연방 정부가 전 정부 차원의 AI 태스크포스를 설립하는 것을 지지합니다.
1.4.2. 브라질(Brazil)
2021년 9월 30일, 브라질 하원은 인공지능 기술의 개발 및 사용을 규제하고 AI 솔루션의 연구 및 혁신을 촉진하기 위한 브라질 인공지능 법적 프레임워크(Marco Legal da Inteligência Artificial)를 승인했습니다. 이 법안은 윤리, 문화, 정의, 공정성 및 책임성을 목표로 하는 10개 조항으로 구성되어 있으며, 윤리적 원칙의 수립, 연구에 대한 지속적인 투자 촉진 및 혁신 장벽 제거를 목표로 합니다. 특히, 4조는 차별적이지 않은 AI 솔루션의 개발, 다원성 및 인권 존중을 강조합니다. 또한, 이 법안은 브라질처럼 다양한 인종과 다문화 사회를 위한 의사결정 알고리즘에서 평등 원칙의 중요성을 강조합니다.
법안이 처음 공개되었을 때, 많은 비판을 받았고 이는 정부에 큰 경각심을 주었습니다. 주요 문제는 이 법안이 책임성, 투명성 및 포괄성 원칙을 충분히 다루지 못하고 있다는 점입니다. 6조는 주관적 책임을 규정하여, AI 시스템에 의해 피해를 입은 개인이 보상을 받기 위해서는 이해관계자를 특정하고 기계의 생애 주기에서 실수가 있었음을 입증해야 합니다. 학자들은 AI 시스템의 높은 자율성, 예측 불가능성 및 복잡성을 고려할 때, 알고리즘 오류를 입증하는 책임을 개인에게 부과하는 것은 법적으로 부적절하다고 지적합니다. 이는 브라질에서 얼굴 인식 시스템으로 인해 경찰이 부당하게 체포하는 현재의 문제를 더욱 부각시킵니다. 법안이 채택되면, 개인은 이러한 기계 오류를 입증하고 정당화해야 할 것입니다.
법안 초안의 주요 논란은 세 가지 원칙에 집중되었습니다. 첫째, 비차별 원칙은 AI가 남용 및 차별적 관행 가능성을 단순히 완화하는 방식으로 개발되고 사용되어야 한다고 제안합니다. 둘째, 중립성 추구 원칙은 이해관계자들에게 편견을 완화하기 위한 권고사항을 나열하지만, 이를 달성할 의무는 없습니다. 마지막으로, 투명성 원칙은 기본 권리를 침해할 위험이 클 때만 시스템의 투명성이 필요하다고 명시합니다. 브라질 인공지능 법적 프레임워크는 구속력 있고 의무적인 조항이 부족하며, 완화된 지침으로 가득 차 있습니다. 전문가들은 이 법안이 AI 차별 편향에 대한 책임을 달성하기 어렵게 만들 수 있다고 강조합니다. EU의 광범위한 위험 기반 규제 제안과 비교할 때, 브라질 법안은 모호하고 일반적인 권고사항만 제시하고 있습니다.
2000년대에 브라질 인터넷 권리 법안(Marco Civil da Internet)을 초안할 때 채택된 다중 이해관계자 참여 접근 방식과 비교할 때, 브라질 법안은 관점이 상당히 부족하다는 평가를 받고 있습니다. 다중 이해관계자주의는 여러 이해관계자가 대화, 의사결정 및 공동으로 인식된 문제에 대한 대응을 구현하기 위해 참여하는 관행으로 정의됩니다. AI 규제 맥락에서 이 관점은 다양한 이해관계자의 관점과 타협을 포착하여 투명성과 광범위한 효능을 유지하는 데 도움이 됩니다. 반면, AI 규제를 위한 법안 제안은 유사한 다중 이해관계자 접근 방식을 따르지 않았습니다.
향후 조치는 다중 이해관계자 관점을 확대하는 것을 포함할 수 있습니다. 법안의 틀의 비적용 가능성에 대한 우려가 커지고 있으며, 규제에 주관적이고 적응적인 조항이 필요함을 강조합니다. "모든 상황에 맞는 하나의 해결책"은 AI 규제에 적합하지 않으며, 주관적이고 적응적인 조항이 필요합니다.
1.4.3. 캐나다(Canada)
2017년에 발표된 범캐나다 인공지능 전략(Pan-Canadian Artificial Intelligence Strategy)은 캐나다 정부의 1억 2천 5백만 캐나다 달러의 연방 자금 지원을 받으며, 목표는 캐나다에서 뛰어난 AI 연구자와 숙련된 졸업생 수를 늘리고, 세 주요 AI 센터에서 과학적 우수성을 확립하며, AI 발전의 경제적, 윤리적, 정책적, 법적 함의에 대한 '글로벌 사상 리더십'을 개발하고, AI에 관한 국가 연구 공동체를 지원하는 것입니다. 이 전략의 중심에는 캐나다 CIFAR AI 의장 프로그램이 있으며, 세계적으로 유명한 AI 연구자를 유치하고 유지하기 위해 5년간 8천 6백 5십만 캐나다 달러의 자금 지원을 받습니다. 연방 정부는 2019년 5월에 AI 자문위원회를 임명하여 캐나다의 강점을 바탕으로 AI 발전이 인권, 투명성, 개방성과 같은 캐나다의 가치를 반영하도록 하는 방법을 검토했습니다. AI 자문위원회는 캐나다 소유의 AI 및 데이터 분석에서 상업적 가치를 추출하는 작업 그룹을 설립했습니다. 2020년에는 연방 정부와 퀘벡 주 정부가 책임 있는 AI 개발을 촉진하기 위해 몬트리올에 국제 AI 진흥 전문 센터를 개소했습니다. 2022년 6월, 캐나다 정부는 범캐나다 인공지능 전략의 두 번째 단계를 시작했습니다. 2022년 11월, 캐나다는 소비자 개인정보 보호법, 개인정보 및 데이터 보호 재판소법, 인공지능 및 데이터법(AIDA)을 포함하는 신뢰와 프라이버시를 위한 포괄적인 입법 패키지로 설명된 디지털 헌장 실행법(Bill C-27)을 도입했습니다.
1.4.4. 모로코(Morocco)
모로코에서는 의회 내 여러 정당 연합이 새로운 입법 제안을 통해 인공지능(AI) 기술을 규제하고, 이 분야에서 국제 기관과의 협력을 강화하며, AI와 관련된 가능성과 위험에 대한 대중의 인식을 높이기 위한 국가 인공지능 기구를 설립하려고 하고 있습니다.
1.4.5. 중국(China)
중국의 인공지능(AI) 규제는 주로 2017년 7월 8일 발표된 "차세대 인공지능 발전 계획"(국무원 문서 No. 35)에 의해 관리됩니다. 이 계획에서 중국 공산당 중앙위원회와 중화인민공화국 국무원은 2030년까지 AI 발전을 촉진할 것을 촉구했습니다. AI 발전을 위한 윤리적 및 법적 지원 문제에 대한 규제가 가속화되고 있으며, 정책은 중국 기업과 귀중한 데이터에 대한 국가 통제를 보장하고 있습니다. 여기에는 중국 사용자 데이터를 국내에 저장하고, 빅데이터, 클라우드 컴퓨팅, 산업 소프트웨어를 포함한 AI의 모든 분야에서 중화인민공화국의 국가 표준을 의무적으로 사용하는 것이 포함됩니다. 2021년에는 AI 사용에 대한 윤리적 지침이 발표되어 연구자들이 AI가 인간의 공유 가치를 준수하고 항상 인간의 통제 하에 있으며, 공공 안전을 위협하지 않도록 해야 한다고 명시되었습니다. 2023년에는 생성형 AI 서비스 관리에 대한 임시 조치가 도입되었습니다.
1.4.6. 유럽 평의회(Council of Europe)
유럽 평의회(CoE)는 인권, 민주주의 및 법치주의를 촉진하는 국제 조직입니다. 유럽 연합의 2018년 인공지능 협력 선언에 서명한 29개국을 포함한 47개 회원국으로 구성되어 있습니다. 유럽 평의회는 회원국들이 유럽 인권 협약에 명시된 권리를 보장할 법적 의무를 가지는 공통 법적 공간을 창출했습니다. AI와 관련하여 "유럽 평의회의 목표는 AI와 인권, 민주주의 및 법치주의에 대한 우리의 기준 사이의 교차 영역을 식별하고, 관련된 표준 설정 또는 역량 구축 솔루션을 개발하는 것"입니다. 유럽 평의회가 식별한 관련 문서들에는 지침, 헌장, 논문, 보고서 및 전략이 포함되어 있습니다. 이러한 AI 규제 문서의 작성 기관은 하나의 사회 부문에 국한되지 않고, 조직, 기업, 기관 및 국가를 포함합니다.
1.4.7. 유럽 연합(European Union)
유럽 연합(EU)은 세계에서 가장 큰 관할 구역 중 하나로, GDPR(일반 데이터 보호 규정), 디지털 서비스법(Digital Services Act), 디지털 시장법(Digital Markets Act)을 통해 디지털 기술의 글로벌 규제에 적극적인 역할을 하고 있습니다. 특히 인공지능법(Artificial Intelligence Act)은 2023년 기준으로 전 세계에서 가장 포괄적인 AI 규제로 간주되고 있습니다.
대부분의 유럽 연합(EU) 회원국은 AI 규제에 대한 자체적인 국가 전략을 가지고 있지만, 이러한 전략은 대체로 일치합니다. 유럽 연합은 유럽 인공지능 전략(European Strategy on Artificial Intelligence)에 따라 고위급 인공지능 전문가 그룹(High-Level Expert Group on Artificial Intelligence)의 지원을 받습니다. 2019년 4월, 유럽 위원회(European Commission)는 신뢰할 수 있는 인공지능(AI)을 위한 윤리 지침(Ethics Guidelines for Trustworthy Artificial Intelligence)을 발표했으며, 이어 2019년 6월에 신뢰할 수 있는 인공지능을 위한 정책 및 투자 권고안(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)을 발표했습니다. 유럽 위원회의 고위급 인공지능 전문가 그룹은 신뢰할 수 있는 AI 작업을 수행하며, 위원회는 AI의 안전 및 책임 측면과 자동화된 차량의 윤리에 대한 보고서를 발행했습니다. 2020년, 유럽 위원회(EU Commission)는 AI 관련 법률 제안에 대한 의견을 구했으며, 이 과정은 현재 진행 중입니다.
2020년 2월 2일, 유럽 위원회(EU Commission)는 "인공지능에 대한 백서 - 탁월함과 신뢰를 위한 유럽 접근법(White Paper on Artificial Intelligence – A European approach to excellence and trust)"을 발표했습니다. 이 백서는 '탁월함의 생태계(ecosystem of excellence)'와 '신뢰의 생태계(ecosystem of trust)'라는 두 가지 주요 구성 요소로 구성되어 있습니다. '신뢰의 생태계'는 AI에 대한 규제 프레임워크에 대한 유럽 연합(EU)의 접근 방식을 설명합니다. 제안된 접근 방식에서는 AI 응용 프로그램이 '고위험'인지 여부에 따라 구분됩니다. 고위험 AI 응용 프로그램만이 향후 유럽 연합(EU) 규제 프레임워크의 범위에 포함됩니다. AI 응용 프로그램이 고위험으로 간주되는 경우는 위험한 부문(예: 의료, 운송 또는 에너지)에서 작동하며 "중대한 위험이 발생할 가능성이 있는 방식으로 사용되는 경우"입니다. 고위험 AI 응용 프로그램에 대한 요구 사항은 주로 "훈련 데이터", "데이터 및 기록 유지", "제공할 정보", "강건성 및 정확성", "인간 감독"에 관한 것입니다. 원격 생체 인식과 같은 특정 사용에 대한 요구 사항도 있습니다. '고위험'으로 분류되지 않은 AI 응용 프로그램은 자발적인 라벨링 제도로 관리될 수 있습니다. 준수 및 집행과 관련하여 위원회는 '테스트, 검사 또는 인증 절차' 및/또는 '개발 단계에서 사용된 알고리즘과 데이터 세트의 점검'을 포함할 수 있는 사전 적합성 평가를 고려하고 있습니다. 국가 유관 당국의 협력 프레임워크 형태로 유럽 거버넌스 구조가 규제 프레임워크의 구현을 촉진할 수 있습니다.
2021년 1월 초안이 2021년 4월 14일 온라인에 유출된 후, 위원회는 일주일 후 공식적인 "인공지능 법 제정 제안(Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act))"을 발표했습니다. 이 제안은 2020년 위험 기반 접근 방식을 미세 조정하여 '최소', '제한', '높음' 및 '허용 불가'의 4가지 위험 범주로 구분되었습니다. 제안에 대한 공공 논의에서는 다양한 모호한 요소, 특히 환자와 이민자와 같은 취약 계층에 대한 예기치 않은 법적 영향을 우려하는 학계의 비판이 있었습니다. AI 법안의 후속 버전은 2023년 6월 14일 유럽 의회(European Parliament)에 의해 채택되었습니다. AI 법안은 2025년 말 또는 2026년 초에 발효될 것으로 예상됩니다. 감정 인식 및 생체 인식 식별은 법 집행에 대한 좁은 예외를 제외하고 일반적으로 금지될 것입니다.
관찰자들은 우르줄라 폰 데어 라이엔(Ursula von der Leyen) 위원회 하에서 입법 제안의 증가에 대한 우려를 표명했습니다. 입법 이니셔티브의 속도는 유럽 연합(EU)의 정치적 야망에 의해 주도되며, 디지털 권리, 특히 사이버 보안을 통한 데이터 보호에 대한 불확실한 보증 앞에서 유럽 시민의 프라이버시 권리를 위험에 빠뜨릴 수 있습니다. 우르줄라 폰 데어 라이엔(Ursula von der Leyen) 위원회 하의 AI 분야에서 다양한 입법 제안의 지침 원칙 중 하나는 전략적 자율성(strategic autonomy)과 디지털 주권(digital sovereignty)의 개념입니다.
1.4.8. 독일(Germany)
2020년 11월, 독일 표준화 기관(DIN), DKE 및 독일 연방 경제 에너지부(German Federal Ministry for Economic Affairs and Energy)는 "인공지능을 위한 독일 표준화 로드맵(German Standardization Roadmap for Artificial Intelligence, NRM KI)"의 첫 번째 에디션을 발간하고 독일 연방정부의 디지털 서밋(Digital Summit of the Federal Government of Germany)에서 이를 공개했습니다. NRM KI는 AI와 관련된 향후 규제 및 표준에 대한 요구 사항을 설명합니다. 이 권고 사항의 구현은 인공지능 분야에서 독일 경제와 과학의 국제 경쟁력을 강화하고 이 신흥 기술에 대한 혁신 친화적인 조건을 창출하는 데 도움이 될 것으로 기대됩니다. 첫 번째 에디션은 300명의 전문가가 작성한 200페이지 분량의 문서입니다. 두 번째 에디션은 2022년 12월 9일 독일 정부의 디지털 서밋(Digital Summit)에서 발간되었습니다. DIN은 과학, 산업, 시민 사회 및 공공 부문의 다양한 분야에서 570명 이상의 참여 전문가를 조정했습니다. 두 번째 에디션은 450페이지 분량의 문서입니다.
NRM KI는 한편으로는 응용 분야(예: 의학, 이동성, 에너지 및 환경, 금융 서비스, 산업 자동화)와 기본 문제(예: AI 분류, 보안, 인증 가능성, 사회 기술 시스템, 윤리) 측면에서 중점 주제를 다룹니다. 다른 한편으로는 다양한 이해 관계자와 정보 출처에 걸쳐 AI 분야와 그 환경의 중심 용어에 대한 개요를 제공합니다. 전체적으로 이 문서는 116개의 표준화 필요 사항을 다루고 6개의 주요 권고 사항을 제시합니다.
1.4.9. G7
2023년 10월 30일, G7 회원국들은 히로시마 프로세스(Hiroshima Process)의 일환으로 고급 인공지능 시스템의 설계, 생산 및 구현을 위한 11가지 지침 원칙과 인공지능 개발자를 위한 자발적인 행동 강령(Code of Conduct)에 동의했습니다.
1.4.10. 이탈리아(Italy)
2023년 10월, 이탈리아 개인정보 보호 당국은 자동화 시스템에 의한 치료 결정에 대한 세 가지 원칙을 포함하는 규정을 승인했습니다. 이 원칙은 의사 결정 과정의 투명성, 자동화된 결정에 대한 인간의 감독, 그리고 알고리즘의 비차별성을 포함합니다.
1.4.11. 스페인(Spain)
2018년, 스페인 과학혁신대학교부는 인공지능에 관한 연구개발 전략을 승인했습니다.
2020년 1월 페드로 산체스(Pedro Sánchez) 정부의 두 번째 임기 시작과 함께, 2018년부터 경제부에 속해 있던 신기술 관련 분야가 강화되었습니다. 2020년 디지털화 및 인공지능 담당 국무비서관(Secretariat of State for Digitalization and Artificial Intelligence, SEDIA)이 신설되었습니다. 이 고위 기관에서는 2018년 인공지능에 관한 연구개발 전략에서 제안된 권고사항을 따라, 2020년 국가 인공지능 전략을 개발했습니다. 이 전략은 인공지능의 거버넌스와 윤리적 기준에 관한 조치를 이미 포함하고 있었으며, 2021년 회복, 변환 및 복원 계획 내에 포함되었습니다.
2021년 동안, 정부는 이러한 아이디어를 새로운 정부 기관을 통해 개발할 것임을 밝혔으며, 2022년 일반 국가 예산에서 이 기관의 설립을 승인하고 500만 유로를 할당했습니다.
2022년 9월 13일, 각료회의는 AESIA(Agenzia Estatal de Supervisión de Inteligencia Artificial) 본부 선정 절차를 시작했습니다. 16개 스페인 주가 후보지를 제시했으며, 정부는 라 코루냐(La Coruña)를 선택하여 La Terraza 건물을 제안했습니다.
2023년 8월 22일, 정부는 이 기관의 내부 규정을 승인했습니다. 이를 통해 스페인은 인공지능 감독에 전념하는 기관을 가진 최초의 유럽 국가가 되었으며, 이는 유럽 인공지능 규정의 발효를 예상한 것입니다. 이 규정은 회원국들이 이 문제에 대한 감독 기관을 갖출 필요성을 명시하고 있습니다.
1.4.12. 영국(United Kingdom)
영국은 2015년 초 이노베이트 UK(Innovate UK) 주도로 디지털 경제 전략 2015-2018(Digital Economy Strategy 2015-2018)을 통해 비즈니스에서의 인공지능(AI) 적용과 개발을 지원했습니다. 이는 영국 디지털 전략(UK Digital Strategy)의 일환이었습니다. 공공 부문에서는 디지털, 문화, 미디어, 스포츠부(Department for Digital, Culture, Media and Sport)가 데이터 윤리에 대해 조언하고, 앨런 튜링 연구소(Alan Turing Institute)가 AI 시스템의 책임 있는 설계 및 구현에 대한 지침을 제공했습니다. 사이버 보안 측면에서 2020년 국가 사이버 보안 센터(National Cyber Security Centre)는 '지능형 보안 도구(Intelligent Security Tools)'에 대한 지침을 발표했습니다.
이듬해 영국은 10년간의 국가 AI 전략(National AI Strategy)을 발표하여 장기적인 AI 위험, 특히 일반 인공지능(AGI) 관련 재앙적 위험을 평가하기 위한 행동을 설명했습니다.
2023년 3월, 영국은 AI 규제에 대한 친혁신적 접근법(A pro-innovation approach to AI regulation)이라는 백서를 발표했습니다. 이 백서는 일반적인 AI 원칙을 제시하지만, 교통이나 금융 시장과 같은 특정 분야에 이러한 원칙을 어떻게 적용할지에 대한 유연성을 기존 규제 기관에 남겨두고 있습니다. 2023년 11월, 영국은 첫 번째 AI 안전 정상 회담을 개최했으며, 리시 수낙(Rishi Sunak) 총리는 영국을 AI 안전 규제의 선두주자로 자리매김하고자 했습니다.
1.4.13. 미국(United States)
미국에서 인공지능(AI) 규제에 대한 논의는 AI 규제의 적시성, 연방 규제 프레임워크의 성격, 이를 관리하고 촉진할 기관, 해당 기관의 규제 및 관리 권한, 급변하는 기술에 대응하여 규제를 업데이트하는 방법, 주정부 및 법원의 역할 등을 포함합니다.
2016년, 오바마 행정부는 AI의 위험과 규제에 초점을 맞추기 시작했습니다. 'Preparing For the Future of Artificial Intelligence'라는 제목의 보고서에서 국가 과학기술 위원회는 연구자들이 몇 가지 제한 사항으로 새로운 AI 기술을 계속 개발할 수 있도록 선례를 세웠습니다. 보고서에는 "공공 안전을 보호하기 위한 AI 기반 제품의 규제 접근 방식은 위험 요소 평가에 의해 정보가 제공되어야 한다..."라고 명시되어 있습니다. 이러한 위험은 기존 규제가 AI 기술에 적용되지 않는 경우 규제를 만들기 위한 주요 이유가 될 것입니다.
첫 번째 주요 보고서는 'National Strategic Research and Development Plan for Artificial Intelligence'였습니다. 2018년 8월 13일, 2019 회계연도 존 S. 맥케인 국가 방위 승인법(P.L. 115-232)의 섹션 1051은 미국의 국가 안보와 방위 요구를 포괄적으로 해결하기 위해 인공지능, 기계 학습 및 관련 기술의 개발을 촉진하는 방법과 수단을 고려하기 위해 국가 인공지능 안보 위원회를 설립했습니다. 보안 관련 AI 규제는 국가 인공지능 안보 위원회에서 제공됩니다. 인공지능 이니셔티브 법(S.1558)은 미국의 경제 및 국가 안보를 위해 AI 연구 개발을 가속화하도록 설계된 연방 이니셔티브를 설립하는 제안된 법안입니다.
2019년 1월 7일, '미국 인공지능 리더십 유지에 관한 행정명령'에 따라 백악관의 과학기술정책실(Office of Science and Technology Policy)은 인공지능 애플리케이션 규제를 위한 초안 지침을 발표했으며, 여기에는 AI를 규제할지 여부와 방법을 결정할 때 미국 기관들이 고려해야 할 10가지 원칙이 포함되어 있습니다. 이에 대응하여 국가 표준 기술 연구소는 입장문을 발표했고, 국방 혁신 위원회는 AI의 윤리적 사용에 대한 권고를 발표했습니다. 1년 후, 행정부는 AI 애플리케이션 규제에 대한 또 다른 초안 지침에 대한 의견을 요청했습니다.
AI 규제를 위해 일하는 특정 기관으로는 의료 영상에 AI를 통합하는 경로를 규제하기 위해 경로를 만든 식품의약국(Food and Drug Administration)이 있습니다. 국가 과학기술 위원회는 또한 'National Artificial Intelligence Research and Development Strategic Plan'을 발표했으며, 이는 신뢰할 수 있는 AI를 가능하게 하기 위해 이를 개선하기 위한 공개 검토와 권고를 받았습니다.
2021년 3월, 국가 인공지능 안보 위원회는 최종 보고서를 발표했습니다. 보고서에서는 "AI의 발전, 특히 하나 이상의 차원에서 더 일반적인 AI 기능을 마스터하는 것은 새로운 기능과 응용 프로그램을 제공할 가능성이 있습니다. 이러한 발전은 능력의 변곡점이나 도약을 초래할 수 있습니다. 이러한 발전은 또한 새로운 우려와 위험을 초래할 수 있으며 시스템이 목표와 가치, 안전성, 견고성 및 신뢰성과 일치하도록 보장하기 위해 새로운 정책, 권장 사항 및 기술 발전이 필요합니다. 미국은 AI 발전을 모니터링하고 기술에 필요한 투자를 하고 정책에 주의를 기울여 AI 시스템과 그 사용이 우리의 목표와 가치에 맞도록 해야 합니다."라고 명시되어 있습니다.
2022년 6월, 롭 포트만(Rob Portman) 상원의원과 게리 피터스(Gary Peters) 상원의원이 '세계적 재앙 위험 완화 법안(Global Catastrophic Risk Mitigation Act)'을 도입했습니다. 이 초당적 법안은 "AI가 재앙적 위험을 초래할 수 있는 방식으로 남용되는 위험에 대처하는 데 도움이 될 것입니다."라고 명시되어 있습니다. 2022년 10월 4일, 조 바이든(Joe Biden) 대통령은 새로운 AI 권리 장전을 발표했습니다. 이 권리 장전은 AI 시대에 미국인이 가져야 할 다섯 가지 보호 조항을 개략적으로 설명합니다: 1. 안전하고 효과적인 시스템, 2. 알고리즘 차별 보호, 3. 데이터 프라이버시, 4. 통지 및 설명, 5. 인간 대안, 고려 및 대체. 이 권리 장전은 2021년 10월 미국 정부의 과학기술정책실(OSTP)에 의해 도입되었습니다.
2023년 1월, 뉴욕시 편향 감사법(New York City Bias Audit Law, Local Law 144)이 2021년 11월 뉴욕시 의회에서 제정되었습니다. 원래 2023년 1월 1일에 발효될 예정이었으나, 뉴욕시 소비자 및 노동자 보호국(Department of Consumer and Worker Protection, DCWP)의 법률 요구 사항을 명확히 하기 위한 제안된 규칙에 대한 공청회에서 많은 의견이 접수됨에 따라 시행 날짜가 연기되었습니다. 결국 이 법은 2023년 7월 5일에 발효되었습니다. 이 날짜부터 뉴욕시에서 운영되고 고용하는 회사들은 독립적으로 편향 감사를 받은 자동화 도구를 사용하지 않으면 후보자를 채용하거나 직원을 승진시킬 수 없습니다.
2023년 7월, 바이든-해리스 행정부는 아마존(Amazon), 앤트로픽(Anthropic), 구글(Google), 인플렉션(Inflection), 메타(Meta), 마이크로소프트(Microsoft), 오픈AI(OpenAI) 등 7개 회사와 AI와 관련된 위험을 관리하기 위한 자발적 약속을 확보했습니다. 이 회사들은 AI 제품이 공개되기 전에 내부 및 외부 보안 테스트를 거칠 것, 산업, 정부, 시민 사회, 학계와 AI 위험 관리 정보를 공유할 것, 사이버 보안을 우선시하고 AI 시스템 구성 요소를 보호할 것, 콘텐츠가 AI 생성된 것임을 사용자에게 알리는 메커니즘을 개발할 것(예: 워터마킹), AI 시스템의 기능, 한계 및 사용 영역을 공개할 것, 편향, 차별 및 프라이버시 문제를 포함한 사회적 위험에 대한 연구를 우선시할 것, 암 예방에서 기후 변화 완화에 이르는 사회적 문제를 해결하기 위해 AI 시스템을 개발할 것을 약속했습니다. 2023년 9월, 어도비(Adobe), 코히어(Cohere), IBM, 엔비디아(Nvidia), 팔란티어(Palantir), 세일즈포스(Salesforce), 스케일AI(Scale AI), 스태빌리티AI(Stability AI) 등 8개 회사가 이러한 자발적 약속에 가입했습니다.
바이든 행정부는 2023년 10월에 AI 규제를 형성하기 위해 연방 정부의 구매력을 활용하는 행정 명령을 발표할 것임을 시사하며 AI 기술 규제에 대한 적극적인 정부 입장을 나타냈습니다. 2023년 10월 30일, 바이든 대통령은 '안전하고 신뢰할 수 있는 인공지능에 관한 행정 명령'을 발표했습니다. 이 행정 명령은 중요한 인프라에 대한 표준, AI 강화 사이버 보안, 연방 자금 지원 생물 합성 프로젝트 등에 중점을 둡니다.
이 행정 명령은 미국 정부의 여러 기관 및 부서, 특히 에너지 및 국방부에 기존 소비자 보호법을 AI 개발에 적용할 수 있는 권한을 제공합니다.
행정 명령은 AI 이중 사용 기반 모델의 "레드 팀" 또는 스트레스 테스트를 새로 도입하는 이니셔티브를 설정하는 등, 행정부의 AI 회사들과의 이전 합의에 기반을 두고 있습니다. 데이터와 결과는 연방 정부와 공유됩니다.
이 행정 명령은 AI의 사회적 문제를 인식하고 있으며, AI 이중 사용 기반 모델을 구축하는 회사들이 이러한 사회적 문제를 경계할 것을 요구합니다. 예를 들어, 이 행정 명령은 AI가 "직업의 질을 악화시키거나 노동력 혼란을 초래해서는 안 된다"고 명시하고 있습니다. 또한 바이든 대통령의 행정 명령은 AI가 "형평성과 시민권을 증진해야 하며" 소외된 그룹을 불리하게 해서는 안 된다고 규정하고 있습니다. 또한 AI 생성 콘텐츠와 사람 생성 콘텐츠를 구분할 수 있도록 "워터마크"를 포함시켜야 한다는 요구 사항도 포함하고 있어 딥페이크 탐지 연구원들로부터 논란과 비판을 받고 있습니다.
2024년 3월 21일, 테네시 주는 오디오 딥페이크 및 음성 클로닝을 구체적으로 규제하는 '엘비스 법(ELVIS Act)'이라는 법안을 제정했습니다. 이 법안은 이미지, 음성 및 외모의 AI 시뮬레이션을 규제하는 국가 최초의 법안입니다. 이 법안은 테네시 하원과 상원에서 만장일치로 통과되었습니다. 이 법안의 성공은 다른 주에서도 유사한 행동을 촉발하여 디지털 시대의 저작권 및 프라이버시를 보호하고 아티스트의 권리를 무단 사용으로부터 보호하는 것의 중요성을 강화할 수 있기를 바랍니다.
2024년 3월 13일, 유타 주지사 스펜서 콕스(Spencer Cox)는 '인공지능 정책법(S.B 149)'에 서명했습니다. 이 법안은 2024년 5월 1일부터 시행됩니다. 이 법안은 주 소비자 보호법에 따라 요구될 때 생성 AI 사용을 공개하지 않는 기업에 대한 책임을 확립하고, 사용자가 생성 AI를 사용하여 범죄를 저지를 경우 책임을 지도록 합니다. 또한 인공지능 정책 사무소와 인공지능 학습 연구소 프로그램을 설립합니다.
1.5. 완전 자율 무기의 규제(Regulation of fully autonomous weapons)
치명적인 자율 무기 시스템(LAWS)과 관련된 법적 문제, 특히 무력 충돌 법규 준수에 관한 논의는 2013년부터 유엔에서 특정 재래식 무기에 관한 협약(Convention on Certain Conventional Weapons) 맥락에서 이루어졌습니다. 특히 2014년, 2015년, 2016년에 전문가들의 비공식 회의가 열렸으며, 2016년에는 이 문제를 더욱 논의하기 위해 정부 전문가 그룹(GGE)이 임명되었습니다. LAWS에 관한 GGE가 채택한 일련의 지도 원칙은 2018년에 채택되었습니다.
2016년, 중국은 기존 국제법이 완전 자율 무기의 가능성을 다룰 수 있는 적절성을 의문시하는 입장 문서를 발표하여, 이 문제를 제기한 최초의 유엔 안전보장이사회 상임이사가 되었습니다. 이는 글로벌 규제에 대한 제안으로 이어졌습니다. 특정 재래식 무기에 관한 협약의 다른 국가 대표단에서도 LAWS 개발 및 사용에 대한 모라토리엄 또는 사전 금지에 대한 가능성이 여러 차례 제기되었으며, 이는 비정부기구 연합인 킬러 로봇을 멈추자 캠페인(Campaign to Stop Killer Robots)에서 강력히 옹호하고 있습니다. 미국 정부는 현재의 국제 인도법이 LAWS의 개발 또는 사용을 규제할 수 있다고 주장합니다. 의회 조사국은 2023년에 미국이 LAWS를 보유하고 있지 않지만, 미국의 정책은 이를 개발 및 배치하는 것을 금지하지 않는다고 밝혔습니다.
인공지능 규제
https://en.wikipedia.org/w/index.php?title=Regulation_of_artificial_intelligence&oldid=1225398920
이 문서는 2024년 5월 25일 (토) 21:43 (KST)에 마지막으로 편집되었습니다.
수정된 부분은 붉은색으로 표시되었습니다.'인공지능' 카테고리의 다른 글
인공지능 무기 경쟁(Artificial intelligence arms race) (0) 2024.05.26 인공지능(Artificial Intelligence) (0) 2024.05.25 AI 서울 정상회의, AI 기업들 새로운 안전 약속 위험 관리 협력 강화 (0) 2024.05.25 미국 백악관, 생성형 AI 기술을 남용한 딥페이크에 대한 대응 (0) 2024.05.25 중국, 최신 AI 챗봇 시진핑 사상으로 훈련된 이유 (0) 2024.05.25