ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • MS, 책임감 있는 AI 투명성 보고서
    인공지능 2024. 5. 8. 00:57

    이 문서는 2024년 5월 1일에 발표된 "Responsible AI Transparency Report"로, 마이크로소프트의 인공지능(AI) 관련 활동 및 철학에 대한 투명성을 제공하는 것을 목적으로 합니다. 2016년에 회사의 CEO인 Satya Nadella가 인간 중심의 AI 접근 방식을 채택하도록 설정한 이후, 마이크로소프트는 AI 제품이 회사의 가치와 일치하도록 노력해왔습니다. 이 보고서는 투명성, 책임감, 공정성, 포괄성, 신뢰성 및 안전, 개인 정보 보호 및 보안의 여섯 가지 핵심 가치를 바탕으로 AI 제품을 개발하고 있다고 설명합니다.

    2023년 7월에는 책임 있는 AI 프로그램에 대한 연례 보고서를 발행하기로 한 약속을 발표하였고, 이는 미국 백악관 자발적 약속에 동참한 다른 주요 AI 회사들과 함께 이루어졌습니다. 보고서는 마이크로소프트가 어떻게 AI 애플리케이션을 개발하는지, 이러한 애플리케이션들을 어떻게 감독하며, 고객이 자체적인 AI 애플리케이션을 구축할 수 있도록 어떻게 지원하는지에 대한 통찰력을 제공합니다. 또한, 책임 있는 AI 공동체로서 어떻게 성장하고 있는지를 보여줍니다.

    특히, 이 보고서는 마이크로소프트가 AI 리스크를 매핑, 측정 및 관리하는 과정을 자세히 설명하며, AI 적용의 투명성을 높이기 위해 노력하고 있음을 강조합니다. 이를 통해 공공의 신뢰를 얻고자 하며, AI 기술의 안전한 배포와 사용을 보장하기 위한 다양한 조치들을 소개합니다.

    이 문서는 마이크로소프트의 기술 개발과 관련된 투명성 노력을 폭넓게 다루며, AI 기술의 책임 있는 사용과 관리 방안을 제시함으로써 기술적 진보가 사회 전반에 미칠 수 있는 영향을 최소화하려는 시도를 보여줍니다.


    1. 서문(Foreword)

    2024년 "Responsible AI Transparency Report"의 서문에서는 마이크로소프트의 인공지능(AI)에 대한 투명성과 책임감 있는 접근 방식을 강조합니다. 2016년에 회사의 CEO인 Satya Nadella가 설정한 인간 중심의 원칙을 바탕으로, 마이크로소프트는 AI 제품을 설계, 구축, 출시할 때 투명성, 책임, 공정성, 포괄성, 신뢰성 및 안전, 개인 정보 보호 및 보안의 여섯 가지 핵심 가치를 지키려고 노력하고 있습니다. 이 보고서는 마이크로소프트가 어떻게 AI 애플리케이션을 책임감 있게 구축하고, 이러한 애플리케이션을 배포하고 감독하는지에 대한 통찰력을 제공하며, 고객이 자체적인 AI 애플리케이션을 구축할 수 있도록 지원하는 방법과 AI 커뮤니티로서 어떻게 성장하고 있는지를 설명합니다 .

    이 서문은 마이크로소프트의 AI 관련 노력과 이념을 개괄적으로 설명하면서, AI 기술의 책임 있는 사용과 투명한 관리를 강조하는 마이크로소프트의 철학을 반영합니다. 또한, 이러한 원칙이 회사의 제품 개발과정에서 어떻게 구현되고 있는지를 보여줍니다.

    2. 주요 요약(Key takeaways)

    마이크로소프트가 인공지능(AI) 애플리케이션을 책임감 있게 구축, 출시, 감독하는 방법과 고객이 자체 AI 애플리케이션을 구축할 수 있도록 지원하는 방법, 그리고 책임 있는 AI 커뮤니티로서 어떻게 학습하고 발전하는지에 대한 통찰을 제공합니다. 이 보고서는 내부 및 외부의 투자를 통해 안전하고 신뢰할 수 있는 AI 애플리케이션을 개발하고 배포하려는 마이크로소프트의 목표에 계속해서 진전을 이루고 있다는 점을 강조합니다 .

    3. Section 1: 책임감 있는 생성적 응용 프로그램 구축 방법(How we build generative applications responsibly)

    "Responsible AI Transparency Report 2024"의 1부는 마이크로소프트가 생성적 AI 애플리케이션을 책임감 있게 구축하는 방법을 자세히 설명합니다. 이 과정은 주로 네 가지 주요 활동으로 구분됩니다.

    정책, 관행 및 프로세스(Govern):

    이 섹션은 마이크로소프트가 책임 있는 AI를 실천에 옮기기 시작하는 과정을 설명합니다. 회사의 Responsible AI Standard를 기반으로, 책임 있는 AI를 엔지니어링 팀, AI 개발 생명주기, 그리고 도구에 통합하는 방법을 상세히 다룹니다.

    위험 식별(Map)

    위험 식별 과정은 AI 위험을 식별하고 우선순위를 매기는 것으로, 안전하고 신뢰할 수 있는 AI 배포를 위해 필요한 역할과 책임을 정립합니다. 이 과정에서는 Responsible AI Impact Assessments를 수행하여 잠재적 위험과 그로 인한 해를 식별하고 이를 완화할 방법을 찾습니다.

    위험 및 완화 평가(Measure)

    이 단계에서는 우선순위에 따라 정량화된 위험을 체계적으로 측정하여 완화의 효과성을 평가합니다. 측정된 위험은 의사 결정 과정에 중요한 메트릭을 제공하여 AI 애플리케이션의 안전을 보장합니다.

    AI 위험 완화(Manage)

    위험 관리 절차에는 확인된 위험을 관리하거나 완화하는 활동이 포함됩니다. 이는 기술적 메커니즘과 사건 대응 과정을 통해 실현되며, 사용자에게 AI가 생성한 출력을 검토하고 사용 전 검증할 기회를 제공하여 투명성과 사용자의 통제를 강화합니다.

    4. Section 2: 생성형 응용 프로그램 출시 결정 방법(How we make decisions about releasing generative applications)

    2부에서는 생성형 AI 애플리케이션의 출시 결정 과정을 설명하며, Generative AI applications의 배포 안전성과 생성형 AI 시대의 민감한 사용 프로그램(Sensitive Uses program)**을 다룹니다.

    생성형 AI 응용프로그램의 배포 안전성

    마이크로소프트는 생성적 AI 애플리케이션의 배포 과정에서 '맵(Map), 측정(Measure), 관리(Manage)' 프로세스를 적용하여 최선의 관행, 지침 및 도구를 구축합니다. 생성적 애플리케이션이 기반 내용과 관련 없는 내용을 생성할 가능성을 평가할 때, 팀은 이 위험을 측정하고 구체적인 완화를 설계하기 위한 중앙집중식 도구와 패턴, 최선의 관행을 제공받습니다. 팀들이 초기 분석을 완료한 후, 고급 전문가들이 평가와 완화를 검토하고 제품 출시 전에 추가적인 권장 사항이나 요구 사항을 제시합니다. 이러한 검토를 통해 생성적 AI 애플리케이션의 설계, 구축 및 출시에 일관된 높은 기준을 적용합니다 .

    생성형 AI 시대의 민감한 사용 프로그램(Sensitive Uses Program)

    민감한 사용 프로그램은 2017년에 설정되어 AI의 높은 영향력 및 높은 위험 사용 사례에 대한 지속적인 검토와 감독을 제공합니다. 회사 전반의 직원들은 개인의 법적 지위나 생활 기회에 중대한 영향을 미치거나, 상당한 신체적 또는 정신적 손상의 위험이 있거나, 개인의 인권 실현 능력을 제한, 침해, 약화시킬 수 있는 AI의 사용이나 오용을 민감한 사용 프로그램에 보고해야 합니다. 특히 영향력이 큰 사용 사례는 민감한 사용 패널 앞에서 검토됩니다. 이 패널은 인권, 사회과학, 개인정보 보호 및 보안 분야의 전문가들로 구성되어 복잡한 사회기술적 문제와 질문을 해결하는 데 도움을 줍니다.

    5. Section 3: 고객이 AI를 책임감 있게 구축할 수 있도록 지원하는 방법(How we support our customers in building AI responsibly)

    3부에서는 마이크로소프트가 고객이 AI를 책임감 있게 구축할 수 있도록 지원하는 방법에 대해 설명하고 있습니다. 이는 크게 세 가지 주요 방법으로 구성됩니다: AI 고객 약속, 책임 있는 개발을 지원하는 도구, 그리고 고객의 책임 있는 개발 및 사용을 지원하기 위한 투명성입니다.

    AI 고객 약속

    마이크로소프트는 고객의 AI 배치와 사용을 지원하기 위해 'AI 고객 약속'을 선포하였습니다. 이는 고객이 마이크로소프트 플랫폼에서 배포하는 AI 애플리케이션이 책임감 있는 AI를 준수하는 법적 및 규제 요구 사항을 충족시키는 것을 돕는 'AI 보증 프로그램'을 포함합니다. 이 프로그램은 규제 기관과의 소통을 지원하고, NIST AI 위험 관리 프레임워크를 어떻게 구현하는지를 증명하는 것을 약속합니다 .

    책임 있는 개발을 지원하는 도구

    마이크로소프트는 고객이 자체 AI 애플리케이션을 책임감 있게 개발할 수 있도록 다양한 도구를 제공합니다. 예를 들어, 'Python Risk Identification Tool for generative AI (PyRIT)'는 보안 전문가와 머신 러닝 엔지니어가 생성적 AI 애플리케이션에서 위험을 사전에 찾아낼 수 있도록 돕습니다. 또한, Azure AI Studio 내의 AI 안전 평가 도구를 통해 고객은 자신의 생성적 AI 애플리케이션을 사전 배치 평가하여 낮은 품질 또는 안전하지 않은 콘텐츠 생성 가능성을 평가할 수 있습니다 .

    고객의 책임 있는 개발 및 사용을 지원하기 위한 투명성

    마이크로소프트는 고객이 AI 플랫폼 및 애플리케이션에 대한 중요 정보를 제공하는 투명성 문서를 제공합니다. 이러한 투명성 문서는 'Transparency Notes'와 같은 형식으로 제공되며, 고객이 자신의 AI 애플리케이션을 책임감 있게 통합하고 사용할 수 있도록 돕습니다. 또한, 사용자 친화적인 고지를 제품 경험에 통합하여 사용자가 AI 애플리케이션과 상호 작용할 때 중요한 공개 사항을 제공합니다 .

    이 섹션은 마이크로소프트가 고객이 AI를 책임감 있게 구축하고 관리할 수 있도록 지원하는 다양한 방법을 구체적으로 설명하고 있습니다.

    5. Section 4: 학습, 진화 및 성장 방법(How we learn, evolve, and grow)

    4부는 마이크로소프트가 책임 있는 AI의 거버넌스를 어떻게 발전시키고, 파트너십과 이해 관계자 입력을 통해 안전하고 책임 있는 프런티어 모델을 구축하며, 합의 기반의 안전 프레임워크를 사용하고, AI 연구 이니셔티브를 지원하며, 책임 있는 AI의 최첨단 연구에 투자하는지에 대해 설명합니다.

    책임 있는 AI의 거버넌스

    마이크로소프트는 책임 있는 AI의 거버넌스를 위해 회사 전체에서 모든 팀이 AI 원칙을 준수하도록 요구 사항과 지침을 전달하는 'Responsible AI Standard'를 개발했습니다. 이는 연구, 정책, 엔지니어링 분야의 전문가들이 협력하여 책임 있는 AI 관행을 최첨단으로 유지하는 데 기여합니다 .

    파트너십과 이해 관계자 입력을 통한 안전하고 책임 있는 프런티어 모델 구축

    마이크로소프트는 프런티어 모델 포럼(Frontier Model Forum)을 공동 설립하여 업계 비영리 단체로서 프런티어 AI 모델의 안전하고 보안된 개발을 위한 정보 공유, 최선의 관행 개발, 프런티어 AI 안전에 대한 연구를 진행하고 있습니다 .

    합의 기반 안전 프레임워크 사용

    마이크로소프트는 NIST의 AI 위험 관리 프레임워크를 기반으로 자체적인 적용을 통해 AI 위험을 완화하고자 합니다. 이 프레임워크는 광범위한 산업, 시민 사회 단체 및 학계 이해 관계자들과의 상담을 통해 개발되었습니다 .

    AI 연구 이니셔티브 지원

    마이크로소프트는 자체 AI & Society Fellows 프로그램과 Accelerating Foundation Models Research 프로그램을 통해 AI 연구를 지원하며, 이는 학계 연구 커뮤니티가 Microsoft Azure를 통해 접근할 수 있는 선도적인 기반 모델을 활용할 수 있도록 합니다 .

    책임 있는 AI의 최첨단 연구에 대한 투자

    회사는 책임 있는 AI에 대한 최첨단 연구를 지원하기 위해 글로벌 연구 인프라와 자원을 투자하고, 이를 통해 AI가 사회 전반에 긍정적인 영향을 미치도록 노력하고 있습니다 .

    7. 전망(Looking ahead)

    마이크로소프트는 책임 있는 AI 발전에 있어 지속적으로 협력을 우선시하고 있으며, 이를 통해 AI 산업 전반에 걸쳐 책임 있는 AI의 확대를 촉진하기 위해 네 가지 주요 영역에 투자할 계획입니다:

    • 자체 제품에서 책임 있는 AI 개발에 대한 새로운 접근 방식 혁신: 새로운 도구와 접근 방식을 통해 책임 있는 AI 개발을 선도합니다.
    • 고객이 자체 AI 애플리케이션을 책임감 있게 개발할 수 있도록 도구 제작: 고객이 책임감 있는 방식으로 AI 애플리케이션을 개발하고 배포할 수 있도록 지원하는 도구와 자원을 제공합니다.
    • 책임 있는 AI 생태계와의 지식 공유 및 최선의 관행 전파: 학습한 내용과 최선의 관행을 널리 공유하여 책임 있는 AI 개발을 장려합니다.
    • 법률, 규범 및 표준 개발 지원: 넓고 포괄적인 다자간 과정을 통해 책임 있는 AI 관련 법률과 규범, 표준을 개발하는 데 기여합니다.

    8. 출처 및 자료(Sources and resources)

    9. 마지막 페이지(Final Page)

    Responsible AI Transparency Report 2024
    Responsible AI Transparency Report 2024(* source : Microsoft)

    https://blogs.microsoft.com/on-the-issues/2024/05/01/responsible-ai-transparency-report-2024/

    Responsible AI Transparency Report 2024.pdf
    2.93MB

Designed by Tistory.