ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 글로벌 인공지능 규제 방식
    인공지능 2023. 9. 5. 00:26

    글로벌 인공지능 규제 방식

    인공지능(AI)은 컴퓨터 과학 분야에서 빠르게 주류로 부상하며, 유명인의 목소리를 재현하고 대화를 즐길 수 있는 챗봇과 같은 즐거움을 제공합니다. 그러나 이 기술은 더 큰 사회적 영향을 가져올 수 있으며, 사회 규범, 산업, 기술 기업의 운명을 혼란스럽게 할 수 있는 중요한 도전을 안겨줄 가능성도 있습니다. 인공지능은 환자 진단부터 날씨 예측과 같은 다양한 분야에서 혁신적인 역할을 할 수 있지만, 이러한 발전이 수백만 명의 일자리를 대체하거나 인간 지능을 능가할 수 있음을 염두에 두어야 합니다.

    글로벌 AI 규제 방식
    글로벌 AI 규제 방식

    최근에 실시된 Pew Research Center의 설문조사에 따르면, 미국의 과반수(52%)는 개인 정보 보호와 기술의 인간 통제에 대한 우려를 포함하여 인공지능의 확산에 대해 긍정적보다는 부정적인 의견을 가지고 있습니다.

    https://www.pewresearch.org/short-reads/2023/08/28/growing-public-concern-about-the-role-of-artificial-intelligence-in-daily-life/

     

    Growing public concern about the role of artificial intelligence in daily life

    52% of Americans say they feel more concerned than excited about the increased use of artificial intelligence.

    www.pewresearch.org

    2023년 현재, ChatGPT, Bard, Bing과 같은 제너레이티브 AI 모델은 일반 대중에게 널리 사용 가능하며, 전 세계 정부들은 이러한 기술을 어떻게 활용할지에 대한 방안을 모색하고 있습니다. 그러나 동시에 인공지능의 과도한 사용을 규제하고, 일상적인 사용에 대한 규칙을 개발하는 과정에서도 노력하고 있습니다.

    이스라엘과 일본을 비롯한 일부 국가는 데이터 보호, 개인 정보 보호, 저작권 보호를 강화하면서 AI 학습에 사용되는 데이터의 처리를 규제하고 있으며, AI의 성장에 적극 대응하고 있습니다. 다른 국가들은 AI 전략을 모호하게 발표하거나 AI 모범 사례를 위한 워킹 그룹을 구성하여 공개적인 검토와 법적 규제를 위한 법률 초안을 개발하는 방식으로 AI의 발전에 대응하고 있습니다.

    인공지능을 개발한 OpenAI와 같은 업계 리더들은 국제적인 규제와 검사 협력을 촉구하고 있지만, 일부 기업들은 여전히 대기하고 있습니다. 이 회사의 CEO와 공동 창업자는 초지능과 관련된 '실존적 위험 가능성'을 경고하며, 이를 방지하기 위해 글로벌 감시 체제가 필요하다고 강조하였으나, 이러한 체제의 효과에 대한 확실한 보장은 아직 없는 상태입니다.

    https://openai.com/blog/governance-of-superintelligence#GregBrockman

     

    Governance of superintelligence

    Now is a good time to start thinking about the governance of superintelligence—future AI systems dramatically more capable than even AGI.

    openai.com

    세계적으로 AI 규제를 목표로 하는 구체적인 법률은 아직 부족하지만, 다양한 국가에서 AI 사용과 관련된 문제를 해결하기 위해 다음과 같은 몇 가지 방법을 시도하고 있습니다.

    • 데이터 보호 강화: 일부 국가는 개인 정보 보호와 저작권 보호를 강화하여 AI 모델의 데이터 처리를 제한하고, 데이터 주체의 권리를 보호합니다.
    • AI 규제 법안 제정: 일부 국가는 AI 사용을 규제하기 위한 법안을 개발하고 공표하며, 이를 통해 AI의 윤리적인 사용과 안전을 촉진하려고 노력합니다.
    • 국제 협력 강화: AI 규제에 대한 국제적인 협력을 촉진하고자 노력하며, 다국간 기구를 통해 AI에 대한 국제 표준과 지침을 개발하려고 합니다.
    • 윤리적 AI 개발 가이드라인: 일부 국가 및 업계는 AI 개발에 대한 윤리적 가이드라인을 제공하고, 이를 준수하는 것을 장려하고 있습니다.

    인공지능이 발전함에 따라 규제와 윤리적 문제는 더욱 중요해질 것으로 예상되며, 이러한 도전에 대한 효과적인 대응이 필요합니다.

    브라질

    브라질에서 제안되었던 AI 법 초안은 인공지능 기술의 사용과 관련된 중요한 규제와 윤리적 가이드라인을 정의하는 중요한 단계로 간주됩니다. 이 법 초안은 사용자의 권리와 AI 개발자의 책임을 강조하고 있으며, 다양한 유형의 AI 시스템을 분류하여 규제하는 방법을 제시하고 있습니다.

    • 사용자의 권리 강화: 법 초안은 사용자가 AI 시스템과 상호 작용할 때 정보를 받는 권리를 강화하고 있습니다. 사용자는 자신이 AI와 상호 작용하고 있다는 사실을 알고, AI가 내린 결정과 추천에 대한 설명을 듣는 권리가 있습니다. 이를 통해 사용자는 AI 결정에 대한 투명성과 이해를 증진시킬 수 있습니다.
    • 중요한 영향을 미치는 AI 결정에 대한 사용자의 권리: 법 초안은 AI 결정이 사용자에게 중대한 영향을 미칠 가능성이 있는 경우, 사용자가 AI 결정에 이의를 제기하거나 인간 개입을 요구할 수 있는 권리를 보장합니다. 이는 자율 주행 자동차, 고용, 신용 평가 등과 같은 분야에서 사용자의 권리를 강화하는 데 도움이 됩니다.
    • AI 개발자의 책임 강화: 법 초안은 AI 개발자에게 AI 제품을 시장에 출시하기 전에 위험 평가를 수행하라는 책임을 부여합니다. 특히, '잠재적' 기술을 배포하거나 사용자의 건강과 안전에 해로운 방식으로 사용자를 악용하는 고위험 AI 시스템은 금지됩니다. 이러한 제품은 정부 데이터베이스에 공개될 예정이며, 이를 통해 사용자와 사회에 대한 위험을 줄일 수 있습니다.
    • 책임의 분산: 법 초안은 모든 AI 개발자가 AI 시스템으로 인한 피해에 대한 책임을 져야 한다는 원칙을 강조하고 있으나, 고위험 제품 개발자는 더 높은 수준의 책임을 져야 합니다. 이는 안전과 윤리적 책임을 강화하며, AI 기술의 안정성을 높입니다.

    브라질의 AI 법 초안은 인공지능 기술의 발전과 사용에 대한 균형을 찾기 위한 노력의 일환으로 보여집니다. 사용자 보호와 윤리적 AI 개발을 강화함으로써, 브라질은 미래에 발생할 수 있는 문제를 예방하고 규제된 AI 생태계를 구축하는 데 기여할 것으로 예상됩니다.

    중국

    중국이 생성형 인공지능에 대한 규정 초안을 발표하고 이에 대한 대중 의견을 수렴하고 있다는 사실은 중국 정부가 인공지능 기술과 서비스에 대한 규제를 강화하려는 노력을 시사하는 중요한 발전입니다. 중국의 초안에서 "사회주의 핵심 가치"를 생성형 AI의 반영 대상으로 명시하는 것은 중국의 정치적 목표와 사회적 가치를 반영하고자 하는 의도를 보여줍니다.

    주목할 만한 규정은 다음과 같습니다.

    • 책임 부여: 생성형 AI를 개발한 개발자는 그 결과물에 대한 책임을 져야 하며, 이것은 AI가 생성한 콘텐츠의 법적 책임을 개발자에게 부여하는 것을 의미합니다. 이러한 규정은 AI 생성물의 윤리적 및 법적 문제에 대한 책임을 높일 수 있습니다.
    • 학습 데이터 제한: 초안은 학습 데이터의 소싱과 관련하여 제한을 설정하고, 학습 데이터가 다른 사람의 지적 재산을 침해하는 경우 법적 책임을 개발자에게 지우는 내용을 포함하고 있습니다. 이는 데이터 유출 및 지적 재산 침해를 방지하려는 목적으로 보입니다.
    • 진실한 콘텐츠 생성: AI 서비스는 "진실하고 정확한" 콘텐츠를 생성하도록 설계되어야 한다고 명시합니다. 이는 딥페이크와 같은 가짜 콘텐츠의 확산을 억제하려는 노력을 반영합니다.

    https://www.wsj.com/articles/china-drafts-rules-for-facial-recognition-use-4953506e?mod=world_lead_pos3 

     

    After Feeding Explosion of Facial Recognition, China Moves to Rein It In

    The proposal, which carves out exceptions for national security, is the latest in a series of moves to put guardrails around how companies use data and artificial intelligence.

    www.wsj.com

    중국의 인공지능 분야에 대한 목표인 "차세대 인공지능 개발 계획"은 중국이 인공지능 분야에서 세계적인 리더십을 강조하고 있음을 보여줍니다. 이러한 노력은 기술 혁신과 경쟁력 강화에 기여할 수 있으며, 규제와 윤리적 가이드라인을 도입하여 안정성과 신뢰성을 확보하려는 중국의 의도를 반영합니다.

    유럽 연합

    유럽 연합에서 "AI 법"을 승인하기로 한 것은 인공지능 기술과 서비스에 대한 중요한 규제를 도입하고자 하는 의향을 보여주는 중요한 발전입니다. 이 법안은 AI 시스템을 허용 가능한 위험 수준에 따라 분류하고, 해당 범주에 따라 규제 및 책임을 부여하는 방식으로 작동합니다.

    https://www.washingtonpost.com/technology/2023/06/14/eu-parliament-approves-ai-act/?itid=lk_inline_manual_32 

     

    Europe moves ahead on AI regulation, challenging tech giants’ power

    The European Parliament approved legislation that would address risky uses of AI, moving faster than other jurisdictions to regulate the technology.

    www.washingtonpost.com

    주요 내용은 다음과 같습니다.

    • 허용할 수 없는 위험 (Unacceptable Risk): 이 범주에 속하는 AI 시스템은 사회적으로 위협으로 간주됩니다. 예를 들어 어린이에게 위험한 행동을 조장하는 음성 인식 장난감이 이에 해당합니다. 이러한 시스템은 AI 법에 따라 금지됩니다.
    • 고위험 AI (High-Risk AI): 고위험 AI 시스템은 승인을 받아야 하며, 이러한 시스템의 시장 출시 전과 제품 수명 주기 동안 유럽 연합 당국의 승인을 필요로 합니다. 이에는 법 집행, 국경 관리, 고용 심사와 관련된 AI 제품 등이 포함됩니다.
    • 제한된 위험 AI (Limited Risk AI): 이 범주에 속하는 AI 시스템은 사용자가 상호 작용에 대한 정보에 기반하여 결정을 내릴 수 있도록 적절한 라벨을 표시해야 합니다. 그렇지 않은 경우, 이러한 제품은 규제 당국의 조사를 피할 수 있습니다.

    이러한 규정을 통해 유럽 연합은 인공지능 기술의 윤리적 사용과 안전성을 강화하려는 노력을 시사하고 있으며, 사용자와 사회의 보호를 우선시하는 방향으로 규제를 진행하고 있습니다. 이 법안이 승인되면, 유럽 연합은 AI 기술과 서비스에 대한 규제 및 감독을 강화하고, 향후 AI의 발전을 더 안정적으로 관리할 수 있을 것으로 기대됩니다.

    이스라엘

    이스라엘이 발표한 AI 규제 정책 초안은 "책임 있는 혁신"을 강조하며, 인공지능의 개발과 사용에 대한 원칙을 명시하는 중요한 단계로 볼 수 있습니다. 이 정책 초안의 주요 특징과 원칙은 다음과 같습니다.

    https://www.gov.il/en/departments/news/most-news20221117

     

    For the first time in Israel: The principles of the policy for the responsible development of the field of artificial intelligen

    The draft policy for regulation and ethics in the field of artificial intelligence, with an emphasis on “responsible innovation”, is intended to ensure the advancement of the industry while safeguarding the public interest

    www.gov.il

    • 도덕적이고 비즈니스 지향적인 나침반: 정책 초안은 인공지능 분야의 모든 관련 주체, 즉 기업, 조직 및 정부 기관을 위한 "도덕적이고 비즈니스 지향적인 나침반"으로 설명합니다. 이는 AI 개발과 사용에 있어 책임과 윤리를 중시하는 방향을 강조합니다.
    • 법치, 기본권, 공공의 이익 존중: 정책 초안은 AI의 개발과 사용이 법치, 기본권 및 공공의 이익을 존중해야 한다고 명시합니다. 이는 인공지능이 사회적 가치와 법적 원칙을 준수해야 함을 강조하는 중요한 원칙입니다.
    • 안전한 사용 보장: AI 제품의 안전한 사용을 보장하기 위해 "공인된 전문적 개념에 따라 합리적인 조치를 취해야 한다"고 언급합니다. 이는 기술적 안전성과 사용자 보호를 강조하며, AI 시스템의 위험을 최소화하기 위한 조치를 의미합니다.
    • 부드러운 규제와 정부 개입: 정책 초안은 업계와 규제 당국 간의 협력을 강조하고, 업계 전반에 걸친 획일적인 법안을 제안하는 대신, 각 분야별 규제 당국이 고유한 상황과 위험에 따라 맞춤화된 개입을 고려하도록 권장합니다. 또한 정부는 글로벌 AI 모범 사례와의 호환성을 유지하도록 노력해야 합니다.

    이 정책 초안은 인공지능 기술과 서비스의 미래를 고려하며, 윤리, 안전성, 법치, 그리고 사용자와 사회의 이익을 보호하기 위한 방향을 제시하고 있습니다. 이스라엘은 AI 분야에서 혁신과 윤리를 조화시키는 방향으로 규제를 개발하고, 글로벌 AI 생태계와의 조화를 추구하고 있는 것으로 보입니다.

    이탈리아

    이탈리아에서의 ChatGPT 금지와 이후의 디지털 혁신 지원 기획은 인공지능과 디지털 기술이 미칠 영향을 관리하고 근로자들을 지원하는 데 중요한 사회적 관심사를 반영하고 있습니다.

    https://www.washingtonpost.com/world/2023/03/31/italy-ban-chatgpt-artificial-intelligence-privacy/?itid=lk_inline_manual_46 

     

    Italy temporarily bans ChatGPT over privacy concerns

    The Italian data protection agency cited concerns about privacy and the absence of age checks with the artificial-intelligence chatbot.

    www.washingtonpost.com

    • ChatGPT 금지: 이탈리아에서의 ChatGPT 금지는 사용자 데이터와 개인 정보 보호에 대한 우려를 나타냈습니다. 이러한 조치는 사용자의 개인 정보와 권리를 보호하기 위한 중요한 단계로 볼 수 있으며, AI 시스템이 수집하는 데이터와 그 사용에 대한 규제를 강화하고자 하는 시도를 보여줍니다.
    • 디지털 혁신 지원: 이탈리아 정부가 디지털 혁신을 통해 뒤처질 위험에 처한 근로자들을 지원하기 위한 자금을 배정하는 것은 중요한 조치입니다. 이 자금은 근로자들을 자동화와 디지털 기술 변화에 대비하도록 교육하고 새로운 직업 기회를 찾을 수 있도록 지원합니다. 또한 실업자나 경제활동이 없는 사람들에게 디지털 기술 교육을 제공하여 경제 적극 참여를 촉진하고자 합니다.

    이러한 노력은 기술 혁신과 디지털화가 근로 시장과 사회에 미치는 영향을 줄이고, 모든 근로자들이 이점을 얻을 수 있도록 하는 것을 목표로 하고 있습니다. 인공지능과 디지털 기술은 미래의 경제적 성장과 발전을 주도하며, 이러한 변화에 대비하여 근로자들을 지원하는 것은 중요한 사회 정책입니다.

    일본

    일본이 '연성법' 접근 방식을 택한 것은 혁신을 억제하지 않으면서도 AI와 관련된 규제를 적용하는 방법을 모색하고 있는 것을 보여줍니다. 이러한 접근 방식은 일본이 AI 기술의 발전을 지켜보면서 필요한 경우에 규제를 도입하려는 의도를 반영합니다.

    https://www.project-disco.org/intellectual-property/011823-israel-ministry-of-justice-issues-opinion-supporting-the-use-of-copyrighted-works-for-machine-learning/

     

    Israel Ministry of Justice Issues Opinion Supporting the Use of Copyrighted Works for Machine Learning - Disruptive Competition

    The Israel Ministry of Justice issued an opinion concluding that the use of copyrighted materials in the machine learning context is permitted under existing Israeli copyright law.

    www.project-disco.org

    주요 포인트는 다음과 같습니다:

    • 규범적 규제 대신 연성법 접근: 일본은 AI 사용에 대한 규범적인 규제를 도입하지 않고, 현재의 법률과 규정을 활용하여 AI 개발과 사용을 감독하고 있습니다. 이러한 접근은 기술의 미래 발전 가능성을 열어두면서도 법적 고려 사항을 유지합니다.
    • 데이터 보호와 지적 재산 규정: 일본은 데이터 보호와 지적 재산 규정을 활용하여 AI 개발을 가이드하고 있습니다. 예를 들어, 저작권법 개정으로 저작권이 있는 콘텐츠를 AI 학습 데이터로 사용할 수 있게 되었습니다. 이렇게 함으로써 AI 기업은 다른 기업의 데이터를 활용하여 알고리즘을 학습할 수 있게 되었습니다.

    이러한 접근 방식은 기술 혁신을 촉진하고 동시에 법적 및 윤리적 고려 사항을 유지하는 중요한 역할을 합니다. 일본은 AI와 관련된 이러한 문제를 조화롭게 다루고 있으며, AI 기술의 발전과 규제 사이의 균형을 유지하려는 노력을 기울이고 있습니다.

    UAE

    아랍에미리트(UAE)의 접근 방식은 AI 개발과 적용을 통해 국가의 혁신과 발전을 촉진하고자 하는 방향을 강조합니다. 이러한 접근 방식은 규제보다는 기술 발전과 혁신을 중시하며, 다음과 같은 주요 특징을 가지고 있습니다.

    https://ai.gov.ae/wp-content/uploads/2021/07/UAE-National-Strategy-for-Artificial-Intelligence-2031.pdf

    • 규제보다 혁신: UAE의 AI 국가 전략은 규제보다는 AI 기술을 더욱 발전시키고 활용하는 데 중점을 두고 있습니다. 규제는 존재하지만 이는 주요 우선 순위가 아니며, 데이터 관리, 윤리, 사이버 보안과 같은 주요 문제에 대한 국가적 접근 방식을 검토하고 개선하기 위한 노력으로 간주됩니다.
    • 인재 유치와 교육: UAE는 AI 분야의 인재를 유치하고 육성하는 데 큰 관심을 가지고 있습니다. AI 전문가와 연구자들을 국내로 유치하고, 국내 교육체계를 통해 AI 기술을 학습하고 개발하는 데 투자하고 있습니다.
    • 주요 부문에 AI 통합: UAE는 AI 기술을 에너지, 관광, 의료 등의 주요 부문에 통합하여 혁신을 촉진하고 있습니다. 이를 통해 경제의 다양한 측면에서 AI의 잠재력을 최대한 활용하고자 합니다.
    • 비전과 노력: UAE의 AI 전략은 국가의 비전과 일치하며, "2071년까지 세계 최고의 국가가 되겠다"는 비전을 구현하기 위한 노력과 연계되어 있습니다. 이를 통해 UAE는 AI 분야에서 선도적 역할을 하고, 국가의 경제와 기술 발전을 촉진하고자 합니다.

    UAE는 AI 기술의 혁신과 활용을 통해 국가의 발전을 주도하고자 하며, 규제보다는 기술 발전과 인재 유치에 집중하는 접근 방식을 채택하고 있습니다.

Designed by Tistory.