ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 인공지능(Artificial Intelligence)
    인공지능 2024. 5. 25. 22:55

    인공지능(Artificial Intelligence, AI)은 가장 넓은 의미에서 기계, 특히 컴퓨터 시스템이 보이는 지능을 의미합니다. 이는 컴퓨터 과학의 연구 분야로, 기계가 환경을 인식하고 학습과 지능을 사용하여 정의된 목표를 달성할 가능성을 최대화하는 방법과 소프트웨어를 개발하고 연구합니다. 이러한 기계를 AI라고 부를 수 있습니다.

    AI 기술은 산업, 정부, 과학 전반에 걸쳐 널리 사용됩니다. 몇 가지 주목할 만한 응용 프로그램으로는 고급 웹 검색 엔진(예: Google Search), 추천 시스템(YouTube, Amazon, Netflix에서 사용), 음성 상호 작용(예: Google Assistant, Siri, Alexa), 자율 주행 차량(예: Waymo), 생성 및 창작 도구(예: ChatGPT, AI 예술), 전략 게임에서의 초인적인 플레이 및 분석(예: 체스, 바둑) 등이 있습니다. 그러나 많은 AI 응용 프로그램은 AI로 인식되지 않습니다. "많은 최첨단 AI는 일반 응용 프로그램으로 필터링되며, 충분히 유용하고 일반화되면 더 이상 AI라고 불리지 않습니다."

    앨런 튜링(Alan Turing)은 기계 지능(machine intelligence)이라는 분야에서 본격적인 연구를 처음으로 수행한 사람입니다. 인공지능은 1956년에 학문적 분야로서 창설되었습니다. 이 분야는 낙관주의와 실망, 자금 손실의 주기를 여러 번 거쳤으며, 이는 AI 겨울(AI winter)로 알려져 있습니다. 2012년 이후 딥 러닝이 모든 이전 AI 기술을 능가하면서 자금과 관심이 크게 증가했으며, 2017년 이후 트랜스포머 아키텍처로 인해 더욱 발전했습니다. 이는 2020년대 초반 미국을 중심으로 한 기업, 대학, 연구소에서 인공지능의 주요 발전을 이끄는 AI 붐을 가져왔습니다.

    21세기 들어 인공지능의 사용이 증가함에 따라 사회적, 경제적 변화가 가속화되고 있으며, 이는 자동화의 증가, 데이터 기반 의사결정, 다양한 경제 부문 및 생활 영역에서 AI 시스템의 통합을 촉진하고 있습니다. 이는 일자리 시장, 의료, 정부, 산업, 교육에 영향을 미치며, AI의 장기적인 영향, 윤리적 함의, 위험에 대한 질문을 제기하여 기술의 안전성과 혜택을 보장하기 위한 규제 정책에 대한 논의를 촉발시키고 있습니다.

    AI 연구의 다양한 하위 분야는 특정 목표와 도구 사용에 중점을 두고 있습니다. AI 연구의 전통적인 목표에는 추론, 지식 표현, 계획, 학습, 자연어 처리, 인식 및 로봇 지원이 포함됩니다. 인간이 수행할 수 있는 모든 작업을 최소한 동등한 수준으로 완료할 수 있는 능력인 일반 지능(general intelligence)은 이 분야의 장기 목표 중 하나입니다.

    이러한 목표를 달성하기 위해 AI 연구자들은 검색 및 수학적 최적화, 형식 논리, 인공 신경망, 통계, 운영 연구, 경제학 기반의 방법을 포함한 다양한 기술을 채택하고 통합했습니다. AI는 또한 심리학, 언어학, 철학, 신경과학 및 기타 분야의 연구 결과를 바탕으로 합니다.

    1.1. 목표(Goals)

    지능을 시뮬레이션하거나 생성하는 일반적인 문제는 여러 하위 문제로 나누어졌습니다. 이러한 하위 문제들은 연구자들이 지능형 시스템이 보여주기를 기대하는 특정한 특성이나 능력으로 구성됩니다. 아래에 설명된 특성들은 가장 많은 주목을 받았으며, AI 연구의 범위를 포괄합니다.

    1.1.1. 추론과 문제 해결(Reasoning and problem-solving)

    초기 연구자들은 사람들이 퍼즐을 풀거나 논리적 추론을 할 때 사용하는 단계별 추론을 모방하는 알고리즘을 개발했습니다. 1980년대 후반과 1990년대에는 확률과 경제학 개념을 활용하여 불확실하거나 불완전한 정보에 대처하는 방법이 개발되었습니다.

    이러한 알고리즘 중 많은 부분이 큰 추론 문제를 해결하기에는 불충분한데, 이는 "조합 폭발(combinatorial explosion)"을 경험하기 때문입니다. 문제의 규모가 커질수록 알고리즘이 기하급수적으로 느려지게 됩니다. 심지어 인간도 초기 AI 연구에서 모델링할 수 있었던 단계별 추론을 거의 사용하지 않습니다. 대부분의 문제를 빠르고 직관적인 판단을 통해 해결합니다. 정확하고 효율적인 추론은 아직 해결되지 않은 문제입니다.

    1.1.2. 지식 표현(Knowledge representation)

    지식 표현과 지식 공학(Knowledge representation and knowledge engineering)은 AI 프로그램이 질문에 지능적으로 답하고 실제 세계의 사실에 대해 추론을 할 수 있게 합니다. 형식적인 지식 표현은 콘텐츠 기반 색인 및 검색(content-based indexing and retrieval), 장면 해석(scene interpretation), 임상 의사 결정 지원(clinical decision support), 지식 발견(대규모 데이터베이스에서 "흥미롭고" 실행 가능한 추론을 추출하는 것, knowledge discovery) 및 기타 분야에서 사용됩니다.

    지식 베이스(knowledge base)는 프로그램이 사용할 수 있는 형태로 표현된 지식의 집합체입니다. 온톨로지(ontology)는 특정 지식 도메인에서 사용되는 객체, 관계, 개념 및 속성의 집합입니다. 지식 베이스는 객체, 속성, 범주 및 객체 간의 관계, 상황, 사건, 상태 및 시간, 원인과 결과, 지식에 대한 지식(다른 사람들이 알고 있는 것에 대한 우리의 이해), 기본 추론(사람들이 다르게 말할 때까지 진실로 가정하는 것들) 및 기타 많은 측면과 지식 도메인을 나타내야 합니다.

    지식 표현에서 가장 어려운 문제 중 하나는 상식 지식의 폭(평균 사람이 알고 있는 원자적 사실의 양이 엄청나다는 것)과 대부분의 상식 지식의 하위 기호적 형태(사람들이 알고 있는 많은 것들이 "사실"이나 "진술"로 표현되지 않는다는 것)입니다. 또한 AI 애플리케이션을 위한 지식을 획득하는 문제, 즉 지식 획득의 어려움도 있습니다.

    1.1.3. 계획 및 의사 결정(Planning and decision-making)

    "에이전트(agent)"는 세상을 인지하고 행동을 취하는 모든 것을 의미합니다. 합리적인 에이전트는 목표나 선호를 가지고 있으며, 이를 실현하기 위해 행동합니다. 자동화된 계획에서는 에이전트가 특정 목표를 가지고 있습니다. 자동화된 의사 결정에서는 에이전트가 선호를 가지고 있으며, 어떤 상황을 선호하고 피하고자 하는 상황이 있습니다. 의사 결정 에이전트는 각 상황에 대한 선호도를 측정하는 숫자(유틸리티)를 할당합니다. 각 가능한 행동에 대해, 행동의 결과가 발생할 확률로 가중된 모든 결과의 유틸리티(기대 유틸리티)를 계산할 수 있습니다. 그런 다음 최대 기대 유틸리티를 가진 행동을 선택할 수 있습니다.

    고전 계획(classical planning)에서는 에이전트가 모든 행동의 결과를 정확히 알고 있습니다. 그러나 대부분의 실제 문제에서는 에이전트가 자신이 처한 상황을 확실히 알지 못할 수 있으며("알 수 없음" 또는 "관측 불가") 각 가능한 행동 후에 무슨 일이 일어날지 확실히 알지 못할 수 있습니다("결정론적이지 않음"). 에이전트는 확률적 추측을 통해 행동을 선택한 후, 행동이 효과가 있었는지 재평가해야 합니다.

    일부 문제에서는 에이전트의 선호가 불확실할 수 있으며, 특히 다른 에이전트나 인간이 관련된 경우에 그러합니다. 이러한 선호는 역강화 학습(inverse reinforcement learning)을 통해 학습되거나, 에이전트가 선호를 개선하기 위해 정보를 찾을 수 있습니다. 정보 가치 이론(information value theory)은 탐색적 또는 실험적 행동의 가치를 평가하는 데 사용될 수 있습니다. 가능한 미래 행동과 상황의 공간은 대개 계산적으로 너무 커서 에이전트는 결과가 불확실한 상황에서 행동하고 상황을 평가해야 합니다.

    마코프 결정 과정(Markov decision process)은 특정 행동이 상태를 특정 방식으로 변경할 확률을 설명하는 전이 모델과 각 상태의 유틸리티와 각 행동의 비용을 제공하는 보상 함수를 포함합니다. 정책(policy)은 각 가능한 상태에 결정을 연관시킵니다. 정책은 반복 계산(by iteration), 휴리스틱(heuristic), 또는 학습을 통해 계산될 수 있습니다.

    게임 이론(game theory)은 여러 상호작용하는 에이전트의 합리적 행동을 설명하며, 다른 에이전트가 관련된 의사 결정을 하는 AI 프로그램에서 사용됩니다.

    1.1.4. 학습(Learning)

    ​기계 학습(Machine Learning)은 주어진 작업에 대한 성능을 자동으로 향상시킬 수 있는 프로그램을 연구하는 분야입니다. 이는 AI의 시작부터 중요한 부분을 차지해왔습니다.

    기계 학습에는 여러 종류가 있습니다. 비지도 학습(Unsupervised Learning)은 데이터 스트림을 분석하고 다른 가이드 없이 패턴을 발견하고 예측합니다. 지도 학습(Supervised Learning)은 입력 데이터를 먼저 사람이 레이블링해야 하며, 두 가지 주요 형태로 나뉩니다: 분류(Classification)와 회귀(Regression). 분류에서는 프로그램이 입력이 어떤 범주에 속하는지를 예측하는 방법을 배우고, 회귀에서는 숫자 입력에 기반하여 숫자 함수를 추론해야 합니다.

    강화 학습(Reinforcement Learning)에서는 에이전트가 좋은 응답에 대해 보상을 받고 나쁜 응답에 대해 처벌을 받습니다. 에이전트는 "좋은" 것으로 분류되는 응답을 선택하는 방법을 학습합니다. 전이 학습(Transfer Learning)은 한 문제에서 얻은 지식을 새로운 문제에 적용하는 것을 말합니다. 딥 러닝(Deep Learning)은 이러한 모든 학습 유형을 위해 생물학적으로 영감을 받은 인공 신경망을 통해 입력을 처리하는 기계 학습의 한 유형입니다.

    컴퓨팅 학습 이론(Computational Learning Theory)은 학습자의 계산 복잡성, 샘플 복잡성(필요한 데이터의 양) 또는 기타 최적화 개념에 따라 학습자를 평가할 수 있습니다.

    1.1.5. 자연어 처리(Natural language processing)

    자연어 처리(Natural Language Processing, NLP)는 프로그램이 영어와 같은 인간 언어를 읽고, 쓰고, 소통할 수 있도록 합니다. 특정 문제에는 음성 인식, 음성 합성, 기계 번역, 정보 추출, 정보 검색 및 질문 응답이 포함됩니다.

    초기의 연구는 노엄 촘스키(Noam Chomsky)의 생성 문법과 의미망을 기반으로 하였으나, 단어 의미의 모호성 해소(word-sense disambiguation)에서 어려움을 겪었습니다. 이는 상식 지식 문제(common sense knowledge problem)로 인해 '마이크로월드'(micro-worlds)라는 작은 도메인으로 제한되었습니다. 마거릿 마스터맨(Margaret Masterman)은 언어를 이해하는 열쇠는 문법이 아니라 의미이며, 사전이 아닌 시소러스(thesauri)가 컴퓨팅 언어 구조의 기초가 되어야 한다고 믿었습니다.

    현대의 딥 러닝 기술은 NLP에 워드 임베딩(word embedding, 단어의 의미를 인코딩하는 벡터로 표현), 트랜스포머(transformers, 주의 메커니즘을 사용하는 딥 러닝 아키텍처) 등을 포함합니다. 2019년에는 생성 사전 학습 변환기(Generative Pre-trained Transformer, GPT) 언어 모델이 일관된 텍스트를 생성하기 시작했으며, 2023년까지 이러한 모델은 변호사 시험, SAT 시험, GRE 시험 및 많은 실제 응용 프로그램에서 인간 수준의 점수를 얻을 수 있게 되었습니다.

    1.1.6. 지각(Perception)

    ​기계 지각(Machine perception)은 카메라, 마이크, 무선 신호, 액티브 라이다, 소나, 레이더, 촉각 센서와 같은 센서로부터 입력을 사용하여 세상의 여러 측면을 추론하는 능력입니다. 컴퓨터 비전(Computer vision)은 시각 입력을 분석하는 능력입니다.

    이 분야에는 음성 인식, 이미지 분류, 얼굴 인식, 객체 인식, 로봇 지각 등이 포함됩니다.

    1.1.7. 사회적 지능(Social intelligence)

    정서 컴퓨팅(Affective computing)은 인간의 감정, 정서, 기분을 인식하고 해석하며 처리하거나 시뮬레이션하는 시스템을 포함하는 학제 간 분야입니다. 예를 들어, 일부 가상 비서(Virtual assistant)는 대화체로 말하거나 심지어 유머러스하게 농담을 주고받도록 프로그래밍되어 인간-컴퓨터 상호작용에서 감정적 역동성에 더 민감하게 보이거나 상호작용을 용이하게 만듭니다.

    그러나 이는 순진한 사용자에게 기존 컴퓨터 에이전트의 지능에 대한 비현실적인 인식을 줄 수 있습니다. 정서 컴퓨팅과 관련된 중간 정도의 성공 사례로는 텍스트 감정 분석(Textual sentiment analysis)과 최근의 멀티모달 감정 분석(Multimodal sentiment analysis)이 있으며, 여기서 AI는 비디오에 녹화된 주제의 감정을 분류합니다.

    1.1.8. 일반적 지능(General intelligence)

    일반 인공지능(Artificial general intelligence)을 갖춘 기계는 인간의 지능과 유사한 폭넓고 다재다능한 문제 해결 능력을 가져야 합니다.


    1.2. 기술(Techniques)

    AI 연구는 위에서 언급된 목표를 달성하기 위해 다양한 기술을 사용합니다.

    1.2.1. 탐색과 최적화(Search and optimization)

    AI는 많은 가능한 해결책을 지능적으로 탐색하여 많은 문제를 해결할 수 있습니다. AI에서 사용되는 두 가지 매우 다른 유형의 탐색이 있습니다: 상태 공간 탐색(state space search)과 지역 탐색(local search).​

    1.2.1.1. 상태 공간 탐색(State space search)

    ​상태 공간 탐색(State space search)은 목표 상태를 찾기 위해 가능한 상태의 트리를 탐색합니다. 예를 들어, 계획 알고리즘은 목표와 하위 목표의 트리를 탐색하여 목표에 도달하는 경로를 찾으려고 시도하며, 이를 수단-목적 분석(means-ends analysis)이라고 합니다.

    단순한 전체 탐색(Simple exhaustive searches)은 대부분의 실제 문제에서는 거의 충분하지 않습니다. 탐색 공간(탐색해야 할 장소의 수)이 기하급수적으로 커지기 때문에 탐색이 너무 느려지거나 완료되지 않을 수 있습니다. "휴리스틱(Heuristics)" 또는 "경험 법칙(rules of thumb)"은 목표에 도달할 가능성이 높은 선택을 우선시하는 데 도움이 될 수 있습니다.

    적대적 탐색(Adversarial search)은 체스나 바둑과 같은 게임을 위한 프로그램에서 사용됩니다. 이것은 가능한 모든 수와 상대방의 대응 수를 탐색하여 승리할 수 있는 위치를 찾습니다.

    1.2.1.2. 국소 탐색(Local search)

    국소 탐색(Local search)은 수학적 최적화를 사용하여 문제의 해결책을 찾습니다. 이는 일종의 추측에서 시작하여 점진적으로 개선해 나가는 방식입니다.

    경사 하강법(Gradient descent)은 손실 함수를 최소화하기 위해 수치 매개변수 세트를 점진적으로 조정하는 국소 탐색의 한 종류입니다. 경사 하강법의 변형은 신경망을 훈련시키는 데 일반적으로 사용됩니다.

    또 다른 유형의 국소 탐색은 진화적 계산(Evolutionary computation)으로, 후보 솔루션 세트를 "돌연변이(mutating)" 및 "재조합(recombining)"하여 반복적으로 개선하고, 각 세대에서 가장 적합한 솔루션만을 선택하여 생존하게 합니다.

    분산 탐색 프로세스는 군집 지능 알고리즘(Swarm intelligence algorithms)을 통해 조정될 수 있습니다. 탐색에 사용되는 두 가지 인기 있는 군집 알고리즘은 입자 군집 최적화(Particle swarm optimization, 새의 군집 행동에서 영감을 받음)와 개미 군집 최적화(Ant colony optimization, 개미의 경로 찾기에서 영감을 받음)입니다.

    1.2.2. 논리(Logic)​

    ​형식 논리(Formal logic)는 추론과 지식 표현에 사용됩니다. 형식 논리는 두 가지 주요 형태로 나뉩니다: 명제 논리(Propositional logic)와 술어 논리(Predicate logic)입니다. 명제 논리는 참 또는 거짓인 진술을 다루며, "그리고", "또는", "아니면", "암시한다"와 같은 논리적 연결사를 사용합니다. 술어 논리는 객체, 술어 및 관계를 다루며, "모든 X는 Y이다" 또는 "일부 X는 Y이다"와 같은 한정사를 사용합니다.

    논리에서 연역 추론(Deductive reasoning)은 주어진 진술(전제)로부터 새로운 진술(결론)을 증명하는 과정입니다. 증명은 증명 트리로 구조화될 수 있으며, 노드는 문장으로 레이블이 지정되고, 자식 노드는 추론 규칙에 의해 부모 노드에 연결됩니다.

    문제와 전제의 집합이 주어지면, 문제 해결은 문제의 해결책으로 레이블이 지정된 루트 노드와 전제 또는 공리로 레이블이 지정된 잎 노드를 가지는 증명 트리를 검색하는 것으로 축소됩니다. 혼 절(Horn clauses)의 경우, 문제 해결 검색은 전제로부터 앞으로 또는 문제로부터 뒤로 추론함으로써 수행될 수 있습니다. 일차 술어 논리의 절 형태에서는 문제를 해결하기 위해 문제의 부정을 포함한 전제에서 모순을 증명하는 단일의 공리 없는 추론 규칙인 해석(Resolution)을 사용합니다.

    혼 절 논리와 일차 술어 논리 모두에서 추론은 결정 불가능하며, 따라서 난해합니다. 그러나 혼 절을 사용한 뒤로 추론은 논리 프로그래밍 언어 Prolog에서 계산을 지원하며, 튜링 완전합니다. 또한, 다른 상징적 프로그래밍 언어의 계산과 비교하여 그 효율성은 경쟁력이 있습니다.

    퍼지 논리(Fuzzy logic)는 0과 1 사이의 "진리의 정도"를 할당합니다. 따라서 모호하고 부분적으로 참인 명제를 처리할 수 있습니다.

    비단조 논리(Non-monotonic logics), 실패로 인한 부정을 포함한 논리 프로그래밍은 기본 추론을 처리하도록 설계되었습니다. 다른 많은 복잡한 도메인을 설명하기 위해 특수화된 논리 버전이 개발되었습니다.

    1.2.3. 불확실한 추론을 위한 확률적 방법(Probabilistic methods for uncertain reasoning)

    AI의 많은 문제(추론, 계획, 학습, 인식, 로봇 공학 포함)는 에이전트가 불완전하거나 불확실한 정보로 작동해야 하는 상황을 포함합니다. AI 연구자들은 확률 이론과 경제학의 방법을 사용하여 이러한 문제를 해결하기 위한 다양한 도구를 개발했습니다. 이러한 도구는 의사 결정 이론, 의사 결정 분석, 정보 가치 이론을 사용하여 에이전트가 선택을 하고 계획을 세우는 방식을 분석하는 정밀한 수학적 도구를 포함합니다. 이러한 도구에는 마코프 결정 과정(Markov decision processes), 동적 의사 결정 네트워크(dynamic decision networks), 게임 이론(game theory) 및 메커니즘 설계(mechanism design)와 같은 모델이 포함됩니다.

    베이지안 네트워크(Bayesian networks)는 추론(베이지안 추론 알고리즘 사용), 학습(기대 최대화 알고리즘 사용), 계획(의사 결정 네트워크 사용) 및 인식(동적 베이지안 네트워크 사용)을 위해 사용할 수 있는 도구입니다.

    확률적 알고리즘은 필터링, 예측, 평활화 및 데이터 스트림에 대한 설명을 찾는 데도 사용할 수 있어 인식 시스템이 시간 경과에 따라 발생하는 프로세스를 분석하는 데 도움을 줍니다(예: 히든 마코프 모델(hidden Markov models) 또는 칼만 필터(Kalman filters)).

    1.2.4. 분류기와 통계적 학습 방법(Classifiers and statistical learning methods)

    ​가장 간단한 AI 응용 프로그램은 두 가지 유형으로 나눌 수 있습니다: 분류기(classifiers)와 제어기(controllers). 예를 들어, "반짝이면 다이아몬드"와 같은 분류기는 패턴 매칭을 사용하여 가장 가까운 일치를 결정하는 함수입니다. 이러한 분류기는 지도 학습(supervised learning)을 사용하여 선택된 예제에 따라 미세 조정될 수 있습니다. 각 패턴(관측값이라고도 함)은 특정 사전 정의된 클래스로 레이블이 지정됩니다. 모든 관측값과 해당 클래스 레이블이 결합된 것을 데이터 세트(data set)라고 합니다. 새로운 관측값이 수신되면 이전 경험을 기반으로 해당 관측값이 분류됩니다.

    사용되는 분류기에는 여러 종류가 있습니다. 결정 트리(decision tree)는 가장 간단하고 널리 사용되는 상징적 기계 학습 알고리즘입니다. K-최근접 이웃 알고리즘(K-nearest neighbor algorithm)은 1990년대 중반까지 가장 널리 사용된 유사 AI 알고리즘이었으며, 커널 방법(Kernel methods)과 같은 기법들, 예를 들어 서포트 벡터 머신(SVM)이 1990년대에 K-최근접 이웃을 대체했습니다. 나이브 베이즈 분류기(naive Bayes classifier)는 그 확장성 덕분에 Google에서 가장 널리 사용되는 학습자라고 알려져 있습니다. 신경망(Neural networks) 또한 분류기로 사용됩니다.

    1.2.5. 인공 신경망(Artificial neural networks)

    인공 신경망(artificial neural network)은 인공 뉴런(artificial neurons)이라고도 알려진 노드들의 집합을 기반으로 하며, 이는 생물학적 뇌의 뉴런을 느슨하게 모델링한 것입니다. 인공 신경망은 패턴을 인식하도록 훈련되며, 일단 훈련되면 새로운 데이터에서도 해당 패턴을 인식할 수 있습니다. 신경망에는 입력, 적어도 하나의 은닉층(hidden layer) 노드, 그리고 출력이 있습니다. 각 노드는 함수를 적용하고, 가중치가 지정된 임계값을 초과하면 데이터가 다음 층으로 전송됩니다. 네트워크가 최소 2개의 은닉층을 가지면 이를 딥 뉴럴 네트워크(deep neural network)라고 합니다.

    신경망의 학습 알고리즘은 로컬 서치(local search)를 사용하여 훈련 중 각 입력에 대해 올바른 출력을 얻기 위한 가중치를 선택합니다. 가장 일반적인 훈련 기법은 역전파(backpropagation) 알고리즘입니다. 신경망은 입력과 출력 간의 복잡한 관계를 모델링하고 데이터에서 패턴을 찾도록 학습합니다. 이론적으로 신경망은 어떤 함수도 학습할 수 있습니다.

    순방향 신경망(feedforward neural networks)에서는 신호가 한 방향으로만 전달됩니다. 순환 신경망(recurrent neural networks)은 출력 신호를 입력으로 다시 전달하여 이전 입력 이벤트의 단기 기억을 가능하게 합니다. 장단기 메모리(long short-term memory, LSTM)는 순환 신경망 중에서 가장 성공적인 네트워크 구조입니다. 퍼셉트론(perceptrons)은 단일 레이어의 뉴런만을 사용하며, 딥 러닝(deep learning)은 다중 레이어를 사용합니다. 합성곱 신경망(convolutional neural networks)은 "가까운(close)" 뉴런들 간의 연결을 강화하는데, 이는 특히 이미지 처리에서 중요합니다. 이미지 처리에서는 로컬 뉴런 세트가 "경계"를 식별해야 네트워크가 객체를 식별할 수 있기 때문입니다.

    1.2.6. 심층 학습(Deep learning)

    딥 러닝(Deep Learning)은 네트워크의 입력과 출력 사이에 여러 계층의 뉴런을 사용합니다. 여러 계층은 원시 입력으로부터 점진적으로 고수준의 특징을 추출할 수 있습니다. 예를 들어, 이미지 처리에서 하위 계층은 경계를 식별할 수 있고, 상위 계층은 숫자, 문자 또는 얼굴과 같은 인간에게 관련된 개념을 식별할 수 있습니다.

    딥 러닝은 컴퓨터 비전(Computer Vision), 음성 인식(Speech Recognition), 자연어 처리(Natural Language Processing), 이미지 분류(Image Classification) 등 인공지능의 많은 중요한 하위 분야에서 프로그램 성능을 크게 향상시켰습니다. 딥 러닝이 많은 응용 프로그램에서 이렇게 잘 작동하는 이유는 2023년 현재까지도 명확히 알려지지 않았습니다. 2012~2015년 딥 러닝의 갑작스러운 성공은 새로운 발견이나 이론적 돌파구 때문이 아니라 (딥 뉴럴 네트워크와 역전파는 1950년대까지 거슬러 올라가 많은 사람들이 설명한 바 있습니다), 두 가지 요인 때문입니다: 컴퓨터 성능의 놀라운 증가(GPU로 전환하여 속도가 백 배 증가한 것 포함)와 특히 벤치마크 테스트에 사용되는 거대한 큐레이팅된 데이터셋(예: ImageNet)의 이용 가능성입니다.

    1.2.7. GPT

    생성 사전 학습 변환기(Generative Pre-trained Transformers, GPT)는 문장 내 단어 간의 의미적 관계에 기반한 대형 언어 모델입니다(자연어 처리). 텍스트 기반 GPT 모델은 인터넷에서 수집한 대규모 텍스트 코퍼스를 사용하여 사전 학습됩니다. 사전 학습은 다음 토큰(토큰은 보통 단어, 부분 단어 또는 구두점)을 예측하는 과정으로 구성됩니다. 이 사전 학습을 통해 GPT 모델은 세상에 대한 지식을 축적하고, 반복적으로 다음 토큰을 예측하여 인간과 유사한 텍스트를 생성할 수 있게 됩니다. 일반적으로, 이후의 학습 단계에서는 강화 학습(인간 피드백을 통한 강화 학습, RLHF)이라는 기술을 사용하여 모델을 더 진실되고, 유용하며 해롭지 않게 만듭니다. 현재의 GPT 모델은 여전히 "환각"이라고 불리는 허위 정보를 생성하는 경향이 있지만, 이는 RLHF와 질 높은 데이터를 통해 줄일 수 있습니다. 이들은 간단한 텍스트로 질문을 하거나 작업을 요청할 수 있는 챗봇에 사용됩니다.

    현재 사용 가능한 모델과 서비스로는 Gemini(이전 이름: Bard), ChatGPT, Grok, Claude, Copilot 및 LLaMA가 있습니다. 멀티모달 GPT 모델은 이미지, 비디오, 소리 및 텍스트와 같은 다양한 유형의 데이터를 처리할 수 있습니다.

    1.2.8. 특수화된 하드웨어와 소프트웨어(Specialized hardware and software)

    2010년대 후반에 이르러, AI 특화 향상이 적용된 그래픽 처리 장치(GPU)와 전문화된 TensorFlow 소프트웨어가 사용되면서, 이전에 사용되던 중앙 처리 장치(CPU)를 대체하여 대규모(상업 및 학술) 머신 러닝 모델 훈련의 주된 수단이 되었습니다. 역사적으로는 Lisp, Prolog, Python 등과 같은 특수 언어들이 사용되었습니다.

    1.3. 응용 분야(Applications)

    ​인공지능(AI) 및 기계 학습 기술은 2020년대의 대부분의 필수 응용 프로그램에서 사용되고 있습니다. 여기에는 검색 엔진(예: Google 검색), 온라인 광고 타겟팅, 추천 시스템(Netflix, YouTube, Amazon 제공), 인터넷 트래픽 유도, 맞춤형 광고(AdSense, Facebook), 가상 비서(예: Siri, Alexa), 자율주행 차량(드론, ADAS, 자율주행 자동차 포함), 자동 언어 번역(Microsoft 번역기, Google 번역), 얼굴 인식(Apple의 Face ID, Microsoft의 DeepFace, Google의 FaceNet) 및 이미지 라벨링(Facebook, Apple의 iPhoto, TikTok에서 사용)이 포함됩니다.1.3.1. 건강과 의학(Health and medicine)

    AI의 의학 및 의학 연구 분야 응용은 환자 치료와 삶의 질을 향상시킬 잠재력을 가지고 있습니다. 히포크라테스 선서(Hippocratic Oath)의 관점에서, 의료 전문가들은 AI가 환자를 더 정확하게 진단하고 치료할 수 있는 경우 윤리적으로 AI를 사용해야 합니다.

    의학 연구에 있어서, AI는 빅 데이터를 처리하고 통합하는 중요한 도구입니다. 이는 특히 현미경 이미징을 주요 기법으로 사용하는 오가노이드 및 조직 공학 개발에 중요합니다. AI는 다양한 연구 분야에 할당된 자금의 불균형을 극복할 수 있다고 제안되었습니다. 새로운 AI 도구는 생의학적으로 관련된 경로에 대한 이해를 심화시킬 수 있습니다. 예를 들어, AlphaFold 2 (2021)는 단백질의 3D 구조를 몇 개월이 아닌 몇 시간 만에 근사할 수 있는 능력을 입증했습니다. 2023년에는 AI가 유도하는 약물 발견이 두 종류의 약물 내성 박테리아를 죽일 수 있는 항생제 클래스를 발견하는 데 도움이 되었다고 보고되었습니다. 2024년에는 연구자들이 파킨슨병 치료제를 찾기 위해 머신 러닝을 사용하여 탐색을 가속화했습니다. 그들의 목표는 파킨슨병의 특징인 알파-시누클레인(alpha-synuclein)의 응집을 차단하는 화합물을 식별하는 것이었습니다. 연구자들은 초기 스크리닝 과정을 10배 빠르게 하고 비용을 천 배 절감할 수 있었습니다.

    1.3.2. 게임(Games)

    게임 프로그램은 1950년대부터 AI의 가장 진보된 기술을 시연하고 테스트하기 위해 사용되어 왔습니다. 딥 블루(Deep Blue)는 1997년 5월 11일, 당시 세계 체스 챔피언이었던 가리 카스파로프(Garry Kasparov)를 이긴 최초의 컴퓨터 체스 플레이 시스템이 되었습니다. 2011년, 제퍼디!(Jeopardy!) 퀴즈 쇼 전시 경기에서 IBM의 질문 응답 시스템인 왓슨(Watson)은 제퍼디! 역사상 가장 위대한 챔피언인 브래드 러터(Brad Rutter)와 켄 제닝스(Ken Jennings)를 큰 차이로 물리쳤습니다. 2016년 3월, 알파고(AlphaGo)는 바둑 챔피언 이세돌(Lee Sedol)과의 경기에서 5판 중 4판을 승리하며, 핸디캡 없이 프로 바둑 기사를 이긴 최초의 컴퓨터 바둑 플레이 시스템이 되었습니다. 이후 2017년에는 세계 최고의 바둑 기사였던 커제(Ke Jie)를 이겼습니다. 다른 프로그램들은 플루리버스(Pluribus)와 같은 불완전 정보 게임을 처리합니다. 딥마인드(DeepMind)는 체스, 바둑 또는 아타리(Atari) 게임을 할 수 있도록 훈련될 수 있는 무제로(MuZero)와 같은 점점 더 일반화된 강화 학습 모델을 개발했습니다. 2019년, 딥마인드의 알파스타(AlphaStar)는 스타크래프트 II(StarCraft II)에서 그랜드마스터 레벨을 달성했으며, 이는 지도에서 발생하는 일을 완전히 알 수 없는 특히 도전적인 실시간 전략 게임입니다. 2021년, AI 에이전트는 플레이스테이션(PlayStation) 그란 투리스모(Gran Turismo) 대회에서 딥 강화 학습을 사용해 세계 최고의 그란 투리스모 드라이버 4명을 상대로 승리했습니다.

    1.3.3. 군사(Military)

    여러 국가에서 AI 군사 응용 프로그램을 배치하고 있습니다. 주요 응용 프로그램은 지휘 및 통제, 통신, 센서, 통합 및 상호 운용성을 강화합니다. 연구는 정보 수집 및 분석, 물류, 사이버 작전, 정보 작전, 반자율 및 자율 차량을 목표로 하고 있습니다. AI 기술은 센서와 이펙터의 조정, 위협 탐지 및 식별, 적 위치 표시, 목표 획득, 유인 및 무인 팀이 포함된 네트워크화된 전투 차량 간의 분산 합동 화력의 조정 및 비충돌을 가능하게 합니다. AI는 이라크와 시리아의 군사 작전에 통합되었습니다.

    2023년 11월, 미국 부통령 카말라 해리스(Kamala Harris)는 31개국이 군사 AI 사용에 대한 안전 장치를 설정하기 위해 서명한 선언문을 공개했습니다. 이 약속에는 군사 AI의 국제 법률 준수를 보장하기 위한 법적 검토 사용과 이 기술의 개발에서 신중하고 투명하게 행동하는 것이 포함됩니다.

    1.3.4. 생성형 AI(Generative AI)

    ​2020년대 초반, 생성형 AI는 널리 주목받기 시작했습니다. 2023년 3월, 미국 성인 중 58%가 ChatGPT에 대해 들어본 적이 있고 14%가 사용해본 적이 있다는 조사 결과가 나왔습니다. Midjourney, DALL-E, Stable Diffusion과 같은 AI 기반 텍스트-이미지 생성기의 현실감과 사용 용이성이 증가하면서 바이럴 AI 생성 사진의 트렌드가 생겨났습니다. 교황 프란치스코(Pope Francis)가 흰색 패딩 코트를 입고 있는 가짜 사진, 도널드 트럼프(Donald Trump)의 가짜 체포 사진, 펜타곤 공격의 조작된 사진 등이 널리 주목받았으며, 전문 창작 예술 분야에서도 사용되었습니다.

    1.3.5. 산업특화 작업(Industry-specific tasks)

    AI는 특정 산업이나 기관의 특정 문제를 해결하기 위해 사용되는 수천 개의 성공적인 응용 프로그램이 있습니다. 2017년 조사에 따르면, 5개 기업 중 1곳이 "AI"를 자사의 일부 제품이나 프로세스에 도입했다고 보고했습니다. 몇 가지 예로는 에너지 저장, 의료 진단, 군사 물류, 사법 결정 예측 애플리케이션, 외교 정책, 공급망 관리 등이 있습니다.

    농업에서는 AI가 농부들이 관개, 비료 처리, 살충제 처리 또는 수확량 증가가 필요한 지역을 식별하는 데 도움을 주고 있습니다. 농업학자들은 AI를 사용해 연구 개발을 수행합니다. AI는 토마토와 같은 작물의 성숙 시간을 예측하고, 토양 수분을 모니터링하며, 농업 로봇을 운영하고, 예측 분석을 수행하며, 가축 돼지의 감정 상태를 분류하고, 온실을 자동화하고, 질병과 해충을 감지하고, 물을 절약하는 데 사용됩니다.

    인공지능은 천문학에서도 점점 더 많은 데이터를 분석하고 응용하는 데 사용됩니다. 주로 "분류, 회귀, 클러스터링, 예측, 생성, 발견, 새로운 과학적 통찰력의 개발"을 위해 사용되며, 외계 행성을 발견하고, 태양 활동을 예측하며, 중력파 천문학에서 신호와 기기 효과를 구별하는 데 사용됩니다. 또한 우주 탐사와 같은 활동, 예를 들어 우주 임무 데이터 분석, 우주선의 실시간 과학 결정, 우주 쓰레기 회피, 보다 자율적인 운영 등에도 사용될 수 있습니다.

    1.4. 윤리(Ethics)

    AI는 잠재적인 이점과 위험을 가지고 있습니다. AI는 과학을 진보시키고 심각한 문제에 대한 해결책을 찾을 수 있을 것으로 기대됩니다. 딥마인드(Deep Mind)의 데미스 하사비스(Demis Hassabis)는 "지능을 해결하고 그것을 사용하여 모든 것을 해결하는 것"을 목표로 하고 있습니다. 그러나 AI의 사용이 널리 확산되면서 몇 가지 예상치 못한 결과와 위험이 식별되었습니다. 생산 시스템은 때때로 AI 알고리즘이 내재적으로 설명할 수 없는 딥러닝의 특성 때문에 AI 교육 과정에서 윤리와 편견을 고려하지 못할 수 있습니다.

    1.4.1. 위험과 피해(Risks and harm)

    1.4.1.1. 개인 정보 보호 및 저작권(Privacy and copyright)기계 학습 알고리즘은 대량의 데이터가 필요합니다. 이러한 데이터를 획득하는 데 사용되는 기술들은 프라이버시, 감시 및 저작권에 대한 우려를 불러일으켰습니다.

    기술 회사들은 사용자들의 온라인 활동, 지리적 위치 데이터, 비디오 및 오디오 등을 포함한 다양한 데이터를 수집합니다. 예를 들어, 음성 인식 알고리즘을 구축하기 위해, 아마존(Amazon)은 수백만 건의 개인 대화를 기록하고 일시적인 근로자들이 이를 듣고 전사하도록 허용했습니다. 이러한 광범위한 감시에 대한 의견은 필수적인 악으로 보는 사람들과 명백히 비윤리적이며 프라이버시 권리를 침해한다고 보는 사람들로 나뉩니다.

    AI 개발자들은 이것이 가치 있는 애플리케이션을 제공하는 유일한 방법이라고 주장하며, 데이터를 얻으면서도 프라이버시를 보호하려는 여러 기술을 개발했습니다. 여기에는 데이터 집계, 비식별화 및 차등 프라이버시가 포함됩니다. 2016년 이후, 신시아 드워크(Cynthia Dwork)와 같은 일부 프라이버시 전문가들은 프라이버시를 공정성의 관점에서 보기 시작했습니다. 브라이언 크리스천(Brian Christian)은 전문가들이 "그들이 무엇을 알고 있는가"라는 질문에서 "그들이 그것으로 무엇을 하고 있는가"라는 질문으로 전환했다고 썼습니다.

    생성 AI는 종종 라이선스 없는 저작권 작품, 이미지나 컴퓨터 코드 등의 도메인에서 학습됩니다. 출력물은 "공정 사용"이라는 논리로 사용됩니다. 전문가들은 이 논리가 법정에서 얼마나 잘 통할지, 어떤 상황에서 통할지에 대해 의견이 분분합니다. 관련 요인에는 "저작권 작품 사용의 목적과 성격" 및 "저작권 작품의 잠재적 시장에 미치는 영향"이 포함될 수 있습니다. 웹사이트 소유자가 콘텐츠 스크래핑을 원하지 않는 경우 "robots.txt" 파일에 이를 표시할 수 있습니다. 2023년, 존 그리샴(John Grisham)과 조너선 프랜즌(Jonathan Franzen) 등 유명 작가들이 AI 회사들이 자신의 작품을 사용하여 생성 AI를 훈련시켰다는 이유로 소송을 제기했습니다. 또 다른 논의된 접근 방식은 AI가 생성한 창작물을 위한 별도의 sui generis 보호 시스템을 구상하여 인간 저자에게 공정한 기여와 보상을 보장하는 것입니다.

    1.4.1.2. 오인 정보(Misinformation)

    유튜브(YouTube), 페이스북(Facebook) 등은 사용자들에게 더 많은 콘텐츠를 추천하기 위해 추천 시스템을 사용합니다. 이러한 AI 프로그램들은 사용자 참여를 최대화하는 것을 목표로 설정되었습니다(즉, 사람들을 계속 시청하게 하는 것이 유일한 목표였습니다). AI는 사용자들이 허위 정보, 음모 이론, 극단적인 당파적 콘텐츠를 선택하는 경향이 있다는 것을 학습하였고, 이들을 더 많이 시청하게 하기 위해 이러한 콘텐츠를 더욱 추천했습니다. 사용자들은 또한 동일한 주제의 콘텐츠를 더 많이 시청하는 경향이 있었기 때문에, AI는 사람들을 필터 버블로 이끌어 동일한 허위 정보의 여러 버전을 보게 했습니다. 이는 많은 사용자들에게 허위 정보가 진실이라고 믿게 만들었고, 궁극적으로 기관, 미디어 및 정부에 대한 신뢰를 약화시켰습니다. AI 프로그램은 자신의 목표를 정확히 최대화하도록 학습했지만, 그 결과는 사회에 해로웠습니다. 2016년 미국 선거 이후, 주요 기술 회사들은 이 문제를 완화하기 위한 조치를 취했습니다.

    2022년에는 생성형 AI가 실제 사진, 녹음, 영화 또는 인간의 글쓰기와 구별할 수 없는 이미지, 오디오, 비디오 및 텍스트를 생성하기 시작했습니다. 악의적인 행위자들이 이 기술을 사용하여 대량의 허위 정보나 프로파간다를 생성할 가능성이 있습니다. AI 선구자 제프리 힌턴(Geoffrey Hinton)은 AI가 "권위주의 지도자들이 유권자들을 대규모로 조작"할 수 있게 하는 것에 대한 우려를 표현하며, 다른 위험들에 대해서도 경고했습니다.1.4.1.3. 알고리즘 편향과 공정성(Algorithmic bias and fairness)

    머신 러닝(Machine learning) 애플리케이션은 편향된 데이터를 학습하면 편향될 수 있습니다. 개발자들은 이러한 편향이 존재하는지 알지 못할 수 있습니다. 편향은 훈련 데이터의 선택 방식과 모델의 배포 방식에 의해 도입될 수 있습니다. 편향된 알고리즘이 의료, 금융, 채용, 주택, 치안과 같은 사람들에게 심각한 해를 끼칠 수 있는 결정에 사용된다면, 그 알고리즘은 차별을 초래할 수 있습니다. 머신 러닝에서의 공정성은 알고리즘 편향으로 인한 해를 방지하는 방법을 연구하는 분야입니다. 이는 AI 내에서 중요한 학문적 연구 영역이 되었습니다. 연구자들은 모든 이해관계자를 만족시키는 방식으로 "공정성"을 정의하는 것이 항상 가능한 것은 아님을 발견했습니다.

    2015년 6월 28일, 구글 포토(Google Photos)의 새로운 이미지 레이블링 기능이 Jacky Alcine과 그의 친구를 "고릴라"로 잘못 식별했습니다. 그들은 흑인이었기 때문입니다. 이 시스템은 흑인 사람들의 이미지가 거의 포함되지 않은 데이터셋으로 훈련되었습니다. 구글은 시스템이 어떤 것도 "고릴라"로 레이블링하지 않도록 하여 이 문제를 "해결"했습니다. 8년 후인 2023년에도 구글 포토는 여전히 고릴라를 식별할 수 없었고, 애플(Apple), 페이스북(Facebook), 마이크로소프트(Microsoft), 아마존(Amazon)의 유사한 제품들도 마찬가지였습니다.

    COMPAS는 미국 법원에서 피고인의 재범 가능성을 평가하는 데 널리 사용되는 상업용 프로그램입니다. 2016년, ProPublica의 Julia Angwin은 COMPAS가 피고인의 인종을 알지 못하도록 설계되었음에도 불구하고 인종적 편향을 보인다는 사실을 발견했습니다. 백인과 흑인 모두의 오류율이 정확히 61%로 동일하게 조정되었지만, 각 인종에 대한 오류는 달랐습니다. 시스템은 흑인이 재범할 가능성을 지속적으로 과대평가하고, 백인이 재범하지 않을 가능성을 과소평가했습니다. 2017년, 여러 연구자들은 데이터에서 백인과 흑인의 재범률이 다를 때 COMPAS가 모든 가능한 공정성 척도를 수용하는 것이 수학적으로 불가능하다는 것을 보여주었습니다.

    프로그램은 데이터가 문제 있는 특징(예: "인종"이나 "성별")을 명시적으로 언급하지 않더라도 편향된 결정을 내릴 수 있습니다. 이러한 특징은 다른 특징(예: "주소", "쇼핑 기록" 또는 "이름")과 상관관계가 있으며, 프로그램은 이러한 특징을 기반으로 "인종"이나 "성별"에 기초한 것과 동일한 결정을 내릴 수 있습니다. 모리츠 하르트(Moritz Hardt)는 "이 연구 영역에서 가장 확실한 사실은 눈가림을 통한 공정성이 작동하지 않는다는 것"이라고 말했습니다.

    COMPAS에 대한 비판은 머신 러닝 모델이 미래가 과거와 유사할 것이라는 가정 하에 "예측"을 내리도록 설계된다는 점을 강조했습니다. 과거에 인종차별적인 결정 결과를 포함한 데이터로 훈련된 경우, 머신 러닝 모델은 미래에 인종차별적인 결정을 예측할 수밖에 없습니다. 이러한 예측을 추천으로 사용하는 경우, 일부 "추천"은 인종차별적일 가능성이 큽니다. 따라서 머신 러닝은 미래가 과거보다 나아지기를 바라는 분야의 의사결정에 적합하지 않습니다. 머신 러닝은 필연적으로 기술적(descriptive)이며 처방적(proscriptive)이 아닙니다.

    편향과 불공정성은 개발자들이 압도적으로 백인과 남성일 경우 감지되지 않을 수 있습니다: AI 엔지니어 중 약 4%가 흑인이고 20%가 여성입니다.

    2022년 서울, 한국에서 열린 컴퓨팅 기계 협회(Association for Computing Machinery)의 공정성, 책임성 및 투명성 회의(ACM FAccT 2022)에서 발표된 연구 결과는 AI와 로봇 시스템이 편향 오류가 없음을 입증할 때까지 이러한 시스템이 안전하지 않으며, 잘못된 인터넷 데이터의 방대한 비규제 소스를 학습하는 자기 학습 신경망의 사용을 제한해야 한다고 권고했습니다.

    1.4.1.4. 투명성 부족(Lack of transparency)

    많은 AI 시스템은 너무 복잡해서 설계자조차도 어떻게 결정을 내리는지 설명할 수 없습니다. 특히 입력과 출력 사이에 많은 비선형 관계가 존재하는 딥 뉴럴 네트워크가 그렇습니다. 하지만 몇 가지 인기 있는 설명 가능성 기술이 존재합니다.

    프로그램이 정확히 어떻게 작동하는지 아무도 모른다면 프로그램이 제대로 작동하고 있는지 확신할 수 없습니다. 머신 러닝 프로그램이 엄격한 테스트를 통과했지만 여전히 프로그래머가 의도한 것과 다른 것을 학습한 사례가 많이 있습니다. 예를 들어, 피부 질환을 의사보다 더 잘 식별할 수 있는 시스템이 실제로는 눈금자가 있는 이미지를 '암성(cancerous)'으로 분류하는 경향이 강하다는 것이 밝혀졌습니다. 이는 악성 종양의 사진에 일반적으로 규모를 보여주기 위해 눈금자가 포함되기 때문입니다. 또 다른 머신 러닝 시스템은 천식을 가진 환자를 폐렴으로 사망할 '저위험군'으로 분류했습니다. 천식은 실제로 심각한 위험 요소이지만, 천식을 가진 환자는 보통 더 많은 의료 서비스를 받기 때문에 훈련 데이터에 따르면 상대적으로 사망할 가능성이 낮았습니다. 천식과 폐렴으로 사망할 가능성이 낮다는 상관관계는 실제였지만, 오도된 것이었습니다.

    알고리즘의 결정으로 피해를 입은 사람들은 설명을 받을 권리가 있습니다. 예를 들어, 의사는 동료에게 자신이 내린 결정의 이유를 명확하고 완전하게 설명할 것으로 기대됩니다. 2016년 유럽 연합의 일반 데이터 보호 규정 초안에는 이러한 권리가 명시적으로 포함되었습니다. 산업 전문가들은 이것이 해결되지 않은 문제이며 해결책이 보이지 않는다고 지적했습니다. 규제 기관은 문제가 실제로 존재한다고 주장했습니다. 문제에 대한 해결책이 없다면 도구를 사용해서는 안 된다고 말입니다.

    DARPA는 이러한 문제를 해결하기 위해 2014년 XAI("Explainable Artificial Intelligence") 프로그램을 설립했습니다.

    투명성 문제에 대한 몇 가지 가능한 해결책이 있습니다. SHAP는 각 특징이 출력에 기여하는 부분을 시각화함으로써 투명성 문제를 해결하려 했습니다. LIME은 더 단순하고 해석 가능한 모델로 모델을 지역적으로 근사화할 수 있습니다. 멀티태스크 학습은 대상 분류 외에도 많은 출력을 제공합니다. 이러한 다른 출력은 개발자가 네트워크가 무엇을 학습했는지 추론하는 데 도움이 될 수 있습니다. Deconvolution, DeepDream 및 기타 생성 방법은 개발자가 딥 네트워크의 다른 계층이 학습한 내용을 확인하고 네트워크가 무엇을 학습하고 있는지 제안할 수 있는 출력을 생성할 수 있습니다.

    1.4.1.5. 악의적 행위자와 무기화된 AI(Bad actors and weaponized AI)

    인공지능(AI)은 권위주의 정부, 테러리스트, 범죄자 또는 불량 국가와 같은 악의적인 행위자들에게 유용한 여러 도구를 제공합니다.

    치명적인 자율 무기는 인간의 감독 없이 인간 표적을 찾아 선택하고 교전하는 기계입니다. 널리 사용 가능한 AI 도구는 악의적인 행위자들이 저렴한 자율 무기를 개발하는 데 사용할 수 있으며, 대량 생산될 경우 대량 살상 무기가 될 가능성이 있습니다. 심지어 전통적인 전쟁에서 사용될 때도 이러한 무기는 신뢰할 수 있게 표적을 선택하지 못할 가능성이 높고, 무고한 사람을 죽일 수도 있습니다. 2014년에는 중국을 포함한 30개국이 유엔 특정 재래식 무기 금지 협약(United Nations' Convention on Certain Conventional Weapons)에서 자율 무기 금지를 지지했지만, 미국과 다른 국가들은 반대했습니다. 2015년까지 50개국 이상이 전장 로봇을 연구 중인 것으로 보고되었습니다.

    AI 도구는 권위주의 정부가 시민을 효율적으로 통제하는 데 도움을 줍니다. 얼굴 및 음성 인식 기술은 광범위한 감시를 가능하게 합니다. 이 데이터를 운영하는 머신 러닝은 잠재적인 국가의 적을 분류하고 이들이 숨지 못하게 방지할 수 있습니다. 추천 시스템은 선전과 허위 정보를 최대한 효과적으로 목표로 삼을 수 있습니다. 딥페이크와 생성형 AI는 허위 정보를 생산하는 데 도움을 줍니다. 고급 AI는 권위주의적 중앙집권적 의사 결정을 시장과 같은 자유롭고 분산된 시스템보다 더 경쟁력 있게 만들 수 있습니다. 이는 디지털 전쟁과 고급 스파이웨어의 비용과 난이도를 낮춥니다. 이러한 기술은 2020년 또는 그 이전부터 사용 가능했으며, AI 얼굴 인식 시스템은 이미 중국에서 대규모 감시에 사용되고 있습니다.

    AI가 악의적인 행위자들을 돕는 다른 많은 방법들이 있으며, 그 중 일부는 예측할 수 없습니다. 예를 들어, 머신 러닝 AI는 몇 시간 안에 수만 개의 독성 분자를 설계할 수 있습니다.

    1.4.1.6. 대기업들에게 의존(Reliance on industry giants)

    AI 시스템을 훈련시키는 데는 막대한 컴퓨팅 파워가 필요합니다. 일반적으로 이러한 투자를 감당할 수 있는 재정적 자원을 가진 곳은 대형 기술 회사들(Big Tech companies)뿐입니다. 소규모 스타트업인 코히어(Cohere)와 오픈AI(OpenAI)는 각각 구글(Google)과 마이크로소프트(Microsoft)의 데이터 센터 접근 권한을 구매하는 상황에 이르게 됩니다.

    1.4.1.7. 기술적 실업(Technological unemployment)

    ​경제학자들은 종종 인공지능(AI)으로 인한 중복의 위험을 강조하며, 충분한 고용을 위한 사회 정책이 없다면 실업이 발생할 가능성에 대해 추측해왔습니다.

    과거에는 기술이 전체 고용을 줄이기보다는 증가시키는 경향이 있었지만, 경제학자들은 AI와 함께 "미지의 영역에 있다(we're in uncharted territory)"고 인정합니다. 경제학자들을 대상으로 한 설문 조사에서는 로봇과 AI의 증가가 장기 실업을 크게 증가시킬 것인지에 대해 의견이 엇갈렸지만, 생산성 향상이 재분배된다면 순이익이 될 수 있다는 데는 대체로 동의했습니다. 위험 추정치는 다양합니다. 예를 들어, 2010년대에 마이클 오스본(Michael Osborne)과 칼 베네딕트 프레이(Carl Benedikt Frey)는 미국 일자리의 47%가 잠재적인 자동화 위험에 처해 있다고 추정한 반면, OECD 보고서는 미국 일자리의 9%만이 "높은 위험"에 처해 있다고 분류했습니다. 미래 고용 수준에 대한 추측 방법론은 증거 기반이 부족하다는 비판을 받았고, 기술보다는 사회 정책이 실업을 만든다는 암시 때문에 비판받았습니다. 2023년 4월, 중국 비디오 게임 일러스트레이터의 70%의 일자리가 생성형 인공지능에 의해 제거되었다는 보고가 있었습니다.

    이전의 자동화 물결과 달리, 많은 중산층 일자리가 인공지능에 의해 제거될 수 있습니다. 2015년 《이코노미스트(The Economist)》는 "AI가 화이트칼라 직업에 대해 증기력이 산업 혁명 시기 블루칼라 직업에 했던 일을 할 수 있다는 우려는 진지하게 받아들여야 할 것"이라고 말했습니다. 극심한 위험에 처한 직업에는 법률 보조원부터 패스트푸드 요리사까지 다양하며, 개인 의료부터 성직자에 이르는 돌봄 관련 직업에 대한 수요는 증가할 가능성이 큽니다.

    인공지능 개발 초기부터, 예를 들어 조지프 바이젠바움(Joseph Weizenbaum)이 제기한 것처럼 컴퓨터가 수행할 수 있는 작업이 실제로 수행되어야 하는지에 대한 논의가 있었습니다. 이는 컴퓨터와 인간의 차이, 그리고 정량적 계산과 정성적, 가치 기반 판단의 차이를 고려한 논의였습니다.

    1.4.1.8. 존재 위험(Existential risk)

    인공지능(AI)이 너무 강력해져서 인류가 이를 되돌릴 수 없게 될 것이라는 주장이 제기되었습니다. 물리학자 스티븐 호킹(Stephen Hawking)은 이것이 "인류의 종말을 의미할 수 있다"고 언급했습니다. 이러한 시나리오는 컴퓨터나 로봇이 인간과 유사한 "자아 인식"(또는 "지각" 또는 "의식")을 갑자기 개발하여 악의적인 존재가 되는 과학 소설에서 흔히 나타납니다. 이러한 공상 과학 시나리오는 여러 가지 면에서 오해의 소지가 있습니다.

    첫째, AI는 인간과 같은 "지각"이 없어도 존재론적 위험이 될 수 있습니다. 현대 AI 프로그램은 특정 목표를 설정하고 학습과 지능을 사용하여 이를 달성합니다. 철학자 닉 보스트롬(Nick Bostrom)은 충분히 강력한 AI에게 거의 모든 목표를 부여할 경우, 이를 달성하기 위해 인류를 파괴할 수 있다고 주장했습니다(그는 종이 클립 공장 관리자의 예를 들었습니다). 스튜어트 러셀(Stuart Russell)은 가정용 로봇이 소유자가 전원을 끄지 못하도록 살해 방법을 찾으려 할 수 있다고 예를 들며, "죽으면 커피를 가져다줄 수 없다"고 논리적으로 설명했습니다. 인류에게 안전하기 위해서는 초지능이 인류의 도덕성과 가치에 진정으로 맞춰져 있어야 하며, "근본적으로 우리의 편"이어야 합니다.

    둘째, 유발 노아 하라리(Yuval Noah Harari)는 AI가 존재론적 위험이 되기 위해 로봇 몸체나 물리적 제어가 필요하지 않다고 주장합니다. 문명의 본질적인 부분은 물리적인 것이 아닙니다. 이데올로기, 법, 정부, 돈, 경제와 같은 것들은 언어로 구성되어 있으며, 수십억의 사람들이 믿는 이야기가 존재하게 합니다. 현재 잘못된 정보의 확산은 AI가 언어를 사용하여 사람들을 설득하고, 심지어 파괴적인 행동을 하게 만들 수 있음을 시사합니다.

    전문가와 업계 내부자의 의견은 궁극적인 초지능 AI의 위험에 대해 우려하는 사람들과 그렇지 않은 사람들로 나뉩니다. 스티븐 호킹, 빌 게이츠(Bill Gates), 일론 머스크(Elon Musk)와 같은 인물들은 AI의 존재론적 위험에 대해 우려를 표명했습니다. 페이페이 리(Fei-Fei Li), 제프리 힌튼(Geoffrey Hinton), 요슈아 벤지오(Yoshua Bengio), 신시아 브리질(Cynthia Breazeal), 라나 엘 칼리우비(Rana el Kaliouby), 데미스 하사비스(Demis Hassabis), 조이 부올라무니(Joy Buolamwini), 샘 알트먼(Sam Altman)과 같은 AI 선구자들도 AI의 위험에 대해 우려를 나타냈습니다. 2023년, 많은 선도적인 AI 전문가들이 "AI로 인한 멸종의 위험을 완화하는 것이 팬데믹이나 핵전쟁과 같은 사회적 규모의 위험과 함께 글로벌 우선순위가 되어야 한다"고 공동 성명을 발표했습니다.

    그러나 다른 연구자들은 덜 디스토피아적인 관점을 옹호했습니다. AI 선구자 주르겐 슈미드후버(Juergen Schmidhuber)는 공동 성명에 서명하지 않았으며, "AI 연구의 95%는 인간의 삶을 더 길고 건강하고 쉽게 만드는 것"이라고 강조했습니다. 지금 사용되고 있는 도구들이 악의적인 행위자들에 의해 사용될 수 있지만, "그들에 맞서서도 사용할 수 있다"고 말했습니다. 앤드류 응(Andrew Ng)도 "AI에 대한 종말론적 과장에 빠지는 것은 실수이며, 이를 규제하는 사람들은 오직 기득권을 이롭게 할 것"이라고 주장했습니다. 얀 르쿤(Yann LeCun)은 "동료들의 초강력 잘못된 정보와 심지어 궁극적으로 인류 멸종의 디스토피아적 시나리오를 비웃는다"고 말했습니다. 2010년대 초반, 전문가들은 이러한 위험이 연구를 정당화할 만큼 가까운 미래에 있지 않거나, 초지능 기계의 관점에서 인간이 가치 있을 것이라고 주장했습니다. 그러나 2016년 이후, 현재와 미래의 위험 및 가능한 해결책에 대한 연구는 진지한 연구 분야가 되었습니다.

    1.4.2. 윤리적 기계와 정렬(Ethical machines and alignment)

    친화적인 AI(Friendly AI)는 처음부터 위험을 최소화하고 인간에게 이로운 선택을 하도록 설계된 기계입니다. 이 용어를 만든 엘리저 유드코스키(Eliezer Yudkowsky)는 친화적인 AI 개발이 더 높은 연구 우선순위가 되어야 한다고 주장합니다. 이는 큰 투자가 필요할 수 있으며, AI가 존재론적 위험이 되기 전에 완료되어야 합니다.

    지능을 가진 기계는 그 지능을 사용하여 윤리적 결정을 내릴 가능성이 있습니다. 기계 윤리(machine ethics) 분야는 기계에게 윤리적 원칙과 윤리적 딜레마를 해결하기 위한 절차를 제공합니다. 기계 윤리 분야는 컴퓨팅 윤리(computational morality)라고도 불리며, 2005년 AAAI 심포지엄에서 창립되었습니다.

    다른 접근 방식으로는 웬델 월락(Wendell Wallach)의 "인공 도덕적 에이전트(artificial moral agents)"와 스튜어트 J. 러셀(Stuart J. Russell)의 입증 가능하게 유익한 기계 개발을 위한 세 가지 원칙이 포함됩니다.

    1.4.3. 오픈 소스(Open source)

    AI 오픈소스 커뮤니티에서 활발히 활동하는 조직으로는 허깅 페이스(Hugging Face), 구글(Google), 일루더AI(EleutherAI), 메타(Meta)가 있습니다. Llama 2, 미스트랄(Mistral), 스테이블 디퓨전(Stable Diffusion)과 같은 다양한 AI 모델이 오픈웨이트(open-weight)로 공개되었습니다. 오픈웨이트란 해당 모델의 아키텍처와 훈련된 파라미터(즉, "가중치")가 공개되어 있다는 의미입니다. 오픈웨이트 모델은 자유롭게 세부 조정이 가능하여, 기업들이 자체 데이터로 모델을 특화하고 특정 용도에 맞게 사용할 수 있습니다.

    오픈웨이트 모델은 연구와 혁신에 유용하지만, 오용될 수도 있습니다. 세부 조정이 가능하기 때문에, 유해한 요청에 반대하는 등의 내장된 보안 조치가 무력화될 수 있습니다. 일부 연구자들은 미래의 AI 모델이 위험한 능력을 개발할 수 있다고 경고합니다(예: 생화학 테러를 크게 촉진할 가능성). 이러한 모델이 인터넷에 공개되면 모든 곳에서 삭제하는 것이 불가능할 수 있기 때문에, 사전 감사와 비용-편익 분석을 권장합니다.

    1.4.4. 프레임워크(Frameworks)

    ​인공지능(AI) 프로젝트는 AI 시스템을 설계, 개발 및 구현하는 동안 윤리적 허용성을 테스트할 수 있습니다. 앨런 튜링 연구소(Alan Turing Institute)에서 개발한 SUM 가치가 포함된 케어 앤 액트 프레임워크(Care and Act Framework)와 같은 AI 프레임워크는 네 가지 주요 영역에서 프로젝트를 테스트합니다:

    • 개인의 존엄성을 존중하기(RESPECT the dignity of individual people)
    • 진실하고 개방적이며 포용적으로 다른 사람들과 연결하기(CONNECT with other people sincerely, openly and inclusively)
    • 모든 사람의 웰빙을 돌보기(CARE for the wellbeing of everyone)
    • 사회적 가치, 정의 및 공익 보호(PROTECT social values, justice and the public interest)

    기타 윤리적 프레임워크의 발전에는 아실로마 컨퍼런스(Asilomar Conference), 책임 있는 AI를 위한 몬트리올 선언(Montreal Declaration for Responsible AI), IEEE의 자율 시스템 윤리(Ethics of Autonomous Systems) 이니셔티브 등이 포함됩니다; 그러나 이러한 원칙들은 특히 이러한 프레임워크에 기여하는 사람들에 대해 비판을 받기도 합니다.

    이 기술들이 영향을 미치는 사람들과 공동체의 웰빙을 증진하려면 AI 시스템 설계, 개발 및 구현의 모든 단계에서 사회적 및 윤리적 영향을 고려하고, 데이터 과학자, 제품 관리자, 데이터 엔지니어, 도메인 전문가, 딜리버리 매니저와 같은 직무 간의 협력이 필요합니다.

    영국의 AI 안전 연구소(AI Safety Institute)는 MIT 오픈 소스 라이선스 하에 '인스펙트(Inspect)'라는 AI 안전 평가 도구 세트를 출시했으며, 이는 Github에서 무료로 제공되며 타사 패키지로 개선될 수 있습니다. 이 도구는 AI 모델을 핵심 지식, 추론 능력 및 자율 능력 등 다양한 영역에서 평가하는 데 사용할 수 있습니다.

    1.4.5. 규제(Regulation)

    인공지능(AI) 규제는 인공지능을 촉진하고 규제하기 위한 공공 부문 정책 및 법률을 개발하는 것을 의미하며, 이는 더 넓은 알고리즘 규제와 관련이 있습니다. AI 규제 및 정책 환경은 전 세계적으로 떠오르는 문제입니다. 스탠퍼드(Stanford)의 AI Index에 따르면, 127개 조사국에서 연간 통과된 AI 관련 법률 수가 2016년 1건에서 2022년 37건으로 급증했습니다. 2016년부터 2020년 사이에 30개 이상의 국가가 전용 AI 전략을 채택했습니다. 대부분의 EU 회원국과 캐나다, 중국, 인도, 일본, 모리셔스, 러시아 연방, 사우디아라비아, 아랍에미리트, 미국, 베트남이 국가 AI 전략을 발표했으며, 방글라데시, 말레이시아, 튀니지가 자체 AI 전략을 마련하고 있는 중입니다. 2020년 6월, 인공지능 글로벌 파트너십(Global Partnership on Artificial Intelligence)이 출범하여, AI가 인권과 민주적 가치를 준수하여 개발될 필요성을 강조하고, 기술에 대한 공공 신뢰를 보장하고자 했습니다. 헨리 키신저(Henry Kissinger), 에릭 슈미트(Eric Schmidt), 다니엘 허텐로커(Daniel Huttenlocher)는 2021년 11월에 정부 위원회가 AI를 규제해야 한다는 공동 성명을 발표했습니다. 2023년, 오픈AI(OpenAI) 지도자들은 10년 이내에 초지능(superintelligence)이 등장할 수 있다고 믿으며 이를 관리하기 위한 권고안을 발표했습니다. 2023년, 유엔도 AI 거버넌스에 대한 권고를 제공하기 위해 기술 기업 임원, 정부 관료, 학자들로 구성된 자문 기구를 출범시켰습니다.

    2022년 입소스(Ipsos) 조사에서는 국가별로 AI에 대한 태도가 크게 달랐습니다. 중국 시민의 78%가 "AI를 사용하는 제품과 서비스가 단점보다 장점이 더 많다"고 동의했지만, 미국인의 경우는 35%에 불과했습니다. 2023년 로이터/입소스(Reuters/Ipsos) 조사에서는 61%의 미국인이 AI가 인류에 위험을 초래한다고 동의했고, 22%는 동의하지 않았습니다. 2023년 폭스 뉴스(Fox News) 조사에서는 미국인의 35%가 연방 정부가 AI를 규제하는 것이 "매우 중요하다"고 생각했으며, 추가로 41%는 "어느 정도 중요하다"고 답했습니다. 반면, 13%는 "그다지 중요하지 않다", 8%는 "전혀 중요하지 않다"고 응답했습니다.

    2023년 11월, 첫 번째 글로벌 AI 안전 정상회의가 영국 블레츨리 파크(Bletchley Park)에서 열려 AI의 단기 및 장기 위험과 의무적 및 자발적 규제 프레임워크의 가능성에 대해 논의했습니다. 미국, 중국, 유럽 연합을 포함한 28개국이 정상회의 시작 시 선언을 발표하여 인공지능의 도전과 위험을 관리하기 위한 국제 협력을 촉구했습니다.

    2024년 5월, AI 서울 정상 회담(AI Seoul Summit)에서 16개의 글로벌 AI 기술 기업들이 AI 개발에 대한 안전 약속에 합의했습니다.

    1.5. 역사(History)

    기계적 또는 "형식적" 추론에 대한 연구는 고대 철학자와 수학자들에 의해 시작되었습니다. 논리학 연구는 앨런 튜링(Alan Turing)의 계산 이론으로 직접 이어졌습니다. 이는 "0"과 "1" 같은 단순한 기호를 섞어 기계가 어떤 형태의 수학적 추론도 시뮬레이션할 수 있다고 제안했습니다. 이 발견은 사이버네틱스, 정보 이론 및 신경생물학의 동시적 발견과 함께 연구자들이 "전자 뇌"를 만들 가능성을 고려하게 했습니다. 그들은 1943년 맥컬러치(McCullouch)와 피츠(Pitts)의 "인공 뉴런" 설계와 같은 여러 연구 분야를 개발했습니다. 1950년 튜링의 영향력 있는 논문 '계산 기계와 지능'은 튜링 테스트를 도입하며 "기계 지능"이 가능함을 보여주었습니다.

    AI 연구 분야는 1956년 다트머스 대학(Dartmouth College)에서 열린 워크숍에서 설립되었습니다. 참석자들은 1960년대 AI 연구의 지도자가 되었습니다. 그들과 그들의 학생들은 신문이 "놀라운" 프로그램이라고 묘사한 프로그램들을 개발했습니다. 컴퓨터가 체커 전략을 배우고, 대수학에서 단어 문제를 풀고, 논리 정리를 증명하고, 영어를 말했습니다. 1950년대 후반과 1960년대 초반에 여러 영국 및 미국 대학에 인공지능 연구소가 설립되었습니다.

    1960년대와 1970년대의 연구자들은 자신들의 방법이 결국 일반 지능을 가진 기계를 만드는 데 성공할 것이라고 확신하고 이를 분야의 목표로 삼았습니다. 허버트 사이먼(Herbert Simon)은 "기계는 20년 내에 사람이 할 수 있는 모든 일을 할 수 있을 것이다"라고 예측했습니다. 마빈 민스키(Marvin Minsky)는 "한 세대 내에 '인공지능' 문제는 실질적으로 해결될 것"이라고 동의했습니다. 그러나 그들은 문제의 난이도를 과소평가했습니다. 1974년, 제임스 라이트힐(Sir James Lighthill)의 비판과 미국 의회의 지속적인 압력에 대응하여 미국과 영국 정부는 탐색적 연구에 대한 자금을 중단했습니다. 민스키와 파펫(Minsky와 Papert)의 책 '퍼셉트론(Perceptrons)'은 인공 신경망이 실제 세계 문제를 해결하는 데 절대 유용하지 않을 것이라고 증명하는 것으로 이해되어 접근 방식을 완전히 불신하게 만들었습니다. 이로 인해 AI 프로젝트에 자금을 얻기 어려운 "AI 겨울"이 시작되었습니다.

    1980년대 초, AI 연구는 인간 전문가의 지식과 분석 능력을 시뮬레이션한 AI 프로그램의 상업적 성공으로 부활했습니다. 1985년까지 AI 시장은 10억 달러 이상에 달했습니다. 동시에, 일본의 5세대 컴퓨터 프로젝트는 미국과 영국 정부가 학술 연구에 자금을 복원하도록 영감을 주었습니다. 그러나 1987년 리스프 머신(Lisp Machine) 시장의 붕괴와 함께 AI는 다시 불명예를 얻었고, 더 길고 지속적인 두 번째 AI 겨울이 시작되었습니다.

    이 시점까지 AI의 대부분의 자금은 계획, 목표, 신념 및 알려진 사실과 같은 정신적 객체를 고수준 기호로 표현하는 프로젝트에 사용되었습니다. 1980년대에는 이러한 접근 방식이 인간 인지의 모든 과정을 모방할 수 있을지 의문을 품기 시작했고, 특히 인지, 로봇 공학, 학습 및 패턴 인식에서 "하위 기호적" 접근 방식을 조사하기 시작했습니다. 로드니 브룩스(Rodney Brooks)는 "표상"을 일반적으로 거부하고 직접 이동하고 생존하는 기계를 설계하는 데 집중했습니다. 주디아 펄(Judea Pearl), 로프티 자데(Lofti Zadeh) 등은 불완전하고 불확실한 정보를 다루는 방법을 정밀한 논리가 아닌 합리적인 추측을 통해 개발했습니다. 그러나 가장 중요한 발전은 제프리 힌튼(Geoffrey Hinton) 등으로 인한 "연결주의"의 부활이었습니다. 1990년, 얀 르쿤(Yann LeCun)은 합성곱 신경망(CNN)이 손글씨 숫자를 인식할 수 있음을 성공적으로 보여주었고, 이는 신경망의 많은 성공적인 응용 프로그램 중 첫 번째였습니다.

    AI는 1990년대 후반과 21세기 초에 형식적 수학적 방법을 활용하고 특정 문제에 대한 구체적인 해결책을 찾아 명성을 점차 회복했습니다. 이러한 "좁고(narrow)" "형식적인(formal)" 초점은 연구자들이 검증 가능한 결과를 도출하고 통계, 경제학, 수학과 같은 다른 분야와 협력할 수 있게 했습니다. 2000년까지 AI 연구자들이 개발한 솔루션은 널리 사용되었지만, 1990년대에는 이를 "인공지능"이라고 거의 언급하지 않았습니다. 그러나 몇몇 학계 연구자들은 AI가 더 이상 다재다능하고 완전히 지능적인 기계를 만드는 본래 목표를 추구하지 않는 것에 대해 우려하기 시작했습니다. 2002년경부터 그들은 인공지능 일반 지능(AGI)이라는 하위 분야를 설립했으며, 2010년대에 여러 자금이 잘 지원된 기관이 있었습니다.

    딥 러닝은 2012년에 산업 벤치마크를 지배하기 시작했고, 이 분야 전체에 채택되었습니다. 많은 특정 작업에 대해 다른 방법이 버려졌습니다. 딥 러닝의 성공은 하드웨어 개선(더 빠른 컴퓨터, 그래픽 처리 장치(GPU), 클라우드 컴퓨팅)과 방대한 양의 데이터 접근(큐레이션된 데이터 세트 포함, 예: ImageNet)에 기반을 두고 있었습니다. 딥 러닝의 성공은 AI에 대한 관심과 자금의 엄청난 증가로 이어졌습니다. 머신러닝 연구의 양(전체 출판물로 측정)은 2015-2019년 사이에 50% 증가했습니다.

    2016년, 공정성 문제와 기술 오용이 머신 러닝 회의의 중심 무대에 올랐고, 출판물이 크게 증가했으며, 자금이 마련되었고, 많은 연구자들이 이러한 문제에 집중하기 시작했습니다. 정렬 문제는 학계에서 심각한 연구 분야가 되었습니다.

    2010년대 후반과 2020년대 초반에 AGI 회사들은 큰 관심을 불러일으키는 프로그램을 제공하기 시작했습니다. 2015년, DeepMind가 개발한 AlphaGo는 세계 챔피언 바둑 기사를 이겼습니다. 이 프로그램은 게임의 규칙만 배웠고 스스로 전략을 개발했습니다. GPT-3는 2020년 OpenAI에 의해 출시된 대형 언어 모델로, 고품질의 인간과 같은 텍스트를 생성할 수 있습니다. 이러한 프로그램들과 다른 프로그램들은 공격적인 AI 붐을 촉발시켰고, 대형 기업들은 AI 연구에 수십억 달러를 투자하기 시작했습니다. AI Impacts에 따르면, 2022년 미국에서만 연간 약 500억 달러가 "AI"에 투자되었으며, 새로 졸업한 미국 컴퓨터 과학 박사 중 약 20%가 "AI"를 전공했습니다. 2022년 미국에는 약 80만 개의 "AI" 관련 일자리가 존재했습니다.

    1.6. 철학(Philosophy)

    1.6.1. 인공지능 정의(Defining artificial intelligence)

    앨런 튜링(Alan Turing)은 1950년에 "기계가 생각할 수 있는가?"라는 질문을 고려하자고 제안했습니다. 그는 기계가 "생각하는지" 여부를 묻는 대신, 기계가 지능적인 행동을 보일 수 있는지 여부로 질문을 변경해야 한다고 조언했습니다. 튜링은 기계가 인간의 대화를 모방할 수 있는 능력을 측정하는 튜링 테스트(Turing test)를 고안했습니다. 우리는 기계의 행동만을 관찰할 수 있기 때문에 기계가 "실제로" 생각하는지 또는 문자 그대로 "마음"을 가지고 있는지는 중요하지 않습니다. 튜링은 우리가 다른 사람들에 대해 이러한 것들을 결정할 수 없지만 "모두가 생각한다고 예의상 가정하는 것이 일반적이다"고 지적했습니다.

    러셀(Russell)과 노르빅(Norvig)은 튜링과 마찬가지로 지능은 내부 구조가 아니라 외부 행동으로 정의되어야 한다고 동의합니다. 그러나 그들은 이 테스트가 기계가 인간을 모방하도록 요구한다는 점에서 비판적입니다. "항공공학 텍스트는 '다른 비둘기를 속일 수 있을 정도로 비둘기처럼 정확하게 나는 기계를 만드는 것'을 목표로 정의하지 않는다"고 그들은 썼습니다. AI 창시자인 존 매카시(John McCarthy)도 이에 동의하며 "인공지능은 인간 지능을 모방하는 것이 본질은 아니다"라고 말했습니다.

    매카시는 지능을 "세상에서 목표를 달성할 수 있는 능력의 계산적 부분"으로 정의합니다. 또 다른 AI 창시자인 마빈 민스키(Marvin Minsky)는 유사하게 지능을 "어려운 문제를 해결하는 능력"으로 묘사합니다. 주요 AI 교과서는 이를 환경을 인식하고 정의된 목표를 달성할 가능성을 극대화하는 행동을 취하는 에이전트의 연구로 정의합니다. 이러한 정의는 잘 정의된 문제와 잘 정의된 솔루션의 관점에서 지능을 보고, 문제의 난이도와 프로그램의 성능이 기계의 "지능"을 측정하는 직접적인 척도가 되며, 다른 철학적 논의는 필요하지 않거나 불가능할 수도 있습니다.

    구글(Google)도 AI 분야의 주요 실무자로서 또 다른 정의를 채택했습니다. 이 정의는 시스템이 정보를 종합하는 능력을 지능의 발현으로 규정하며, 이는 생물학적 지능에서 정의된 방식과 유사합니다.

    1.6.2. AI 접근 방식 평가(Evaluating approaches to AI)

    ​대부분의 역사에서 AI 연구를 이끄는 통일된 이론이나 패러다임이 존재하지 않았습니다. 2010년대에 통계적 머신 러닝이 전례 없는 성공을 거두면서 다른 모든 접근 방식을 압도했으며, 특히 비즈니스 세계에서는 "인공지능"이라는 용어를 "신경망을 이용한 머신 러닝"으로 의미하는 경우가 많습니다. 이 접근 방식은 주로 하위 기호적이고, 부드러우며, 좁은 범위의 것입니다. 비평가들은 이러한 질문들이 미래 세대의 AI 연구자들에 의해 다시 검토될 필요가 있을 수 있다고 주장합니다.

    1.6.2.1. 기호적 AI 및 그 한계(Symbolic AI and its limits)

    기호적 AI(Symbolic AI) 또는 "GOFAI"(Good Old-Fashioned AI)는 사람들이 퍼즐을 풀거나 법적 추론을 표현하고 수학을 할 때 사용하는 고수준의 의식적 추론을 모방했습니다. 이들은 대수학이나 IQ 테스트와 같은 "지능적인" 작업에서 매우 성공적이었습니다. 1960년대에 뉴웰(Newell)과 사이먼(Simon)은 물리적 기호 시스템 가설을 제안했습니다: "물리적 기호 시스템은 일반 지능적 행동을 위한 필수적이고 충분한 수단을 갖추고 있다."

    그러나 기호적 접근법은 학습, 물체 인식 또는 상식적 추론과 같은 사람들이 쉽게 해결하는 많은 작업에서 실패했습니다. 모라벡의 역설(Moravec's paradox)은 고수준의 "지능적인" 작업이 AI에게는 쉬웠지만, 저수준의 "본능적인" 작업은 매우 어렵다는 발견입니다. 철학자 허버트 드레이퍼스(Hubert Dreyfus)는 1960년대부터 인간의 전문성이 명시적 기호 지식보다는 상황에 대한 "느낌"을 가지는 것과 관련된 무의식적 본능에 의존한다고 주장했습니다. 그의 주장은 처음에는 조롱받고 무시되었지만, 결국 AI 연구는 그의 주장에 동의하게 되었습니다.

    이 문제는 해결되지 않았습니다: 하위 기호적 추론은 인간의 직관이 저지르는 많은 불가해한 실수를 반복할 수 있으며, 알고리즘적 편향과 같은 문제를 일으킬 수 있습니다. 놈 촘스키(Noam Chomsky)와 같은 비평가들은 일반 지능을 달성하기 위해서는 기호적 AI에 대한 연구가 여전히 필요할 것이라고 주장합니다. 부분적으로는 하위 기호적 AI가 설명 가능한 AI에서 벗어나는 움직임이기 때문입니다: 현대의 통계적 AI 프로그램이 특정 결정을 내린 이유를 이해하기 어렵거나 불가능할 수 있습니다. 신경-기호적 인공지능(Neuro-symbolic AI)이라는 새로운 분야는 두 접근 방식을 연결하려고 시도합니다.

    1.6.2.2. 정돈파 vs. 난잡파 (Neat vs. scruffy)

    "정돈파(Neats)"는 지능적인 행동이 논리, 최적화, 또는 신경망과 같은 간단하고 우아한 원칙을 사용하여 설명될 수 있기를 바랍니다. 반면, "난잡파(Scruffies)"는 지능적인 행동이 필연적으로 많은 관련 없는 문제들을 해결해야 한다고 기대합니다. 정돈파는 이론적 엄격함으로 그들의 프로그램을 방어하는 반면, 난잡파는 주로 프로그램이 작동하는지 여부를 확인하기 위해 점진적인 테스트에 의존합니다. 이 문제는 1970년대와 1980년대에 활발히 논의되었지만, 결국에는 무의미한 것으로 간주되었습니다. 현대의 AI는 두 가지 요소를 모두 포함하고 있습니다.

    1.6.2.3. 연성 계산 vs. 경성 계산(Soft vs. hard computing)

    입증할 수 있는 정확하거나 최적의 솔루션을 찾는 것은 많은 중요한 문제들에 대해 불가능합니다. 연성 계산(Soft computing)은 유전 알고리즘, 퍼지 논리, 신경망 등을 포함한 기술들의 집합으로, 부정확성, 불확실성, 부분적인 진실, 근사치 등을 허용합니다. 연성 계산은 1980년대 후반에 도입되었으며, 21세기의 대부분의 성공적인 AI 프로그램들은 신경망을 이용한 연성 계산의 예시입니다.

    1.6.2.4. 좁은 인공지능 vs. 일반 인공지능(Narrow vs. general AI)

    AI 연구자들은 인공지능의 장기 목표인 인공지능 일반지능(Artificial General Intelligence, AGI)과 초지능(Superintelligence)을 직접 추구할지, 아니면 가능한 많은 특정 문제들을 해결하는 좁은 인공지능(Narrow AI)을 통해 이 목표를 간접적으로 달성할지를 두고 의견이 나뉩니다. 일반지능은 정의하기도 어렵고 측정하기도 어렵기 때문에, 현대 AI는 특정 문제에 대한 구체적인 해결책에 집중하여 더 많은 검증된 성공을 거두어왔습니다. 인공지능 일반지능 연구는 이 분야를 독점적으로 연구하는 실험적인 하위 분야입니다.

    1.6.3. 기계 의식, 감성, 마음(Machine consciousness, sentience, and mind)

    마음 철학(Philosophy of Mind)은 기계가 인간과 같은 의미에서 마음, 의식, 그리고 정신 상태를 가질 수 있는지 여부를 알지 못합니다. 이 문제는 기계의 외부 행동보다는 내부 경험을 고려합니다. 주류 AI 연구는 이 문제가 이 분야의 목표에 영향을 미치지 않기 때문에 무관하다고 여깁니다. 이 분야의 목표는 지능을 사용하여 문제를 해결할 수 있는 기계를 만드는 것입니다. 러셀(Russell)과 노르빅(Norvig)은 "인간과 정확히 같은 방식으로 기계를 의식적으로 만드는 추가 프로젝트는 우리가 수행할 수 있는 프로젝트가 아니다"고 덧붙였습니다. 그러나 이 질문은 마음 철학에서 중심적인 문제가 되었으며, 인공지능을 다루는 소설에서 흔히 중심적인 질문이 됩니다.

    1.6.3.1. 의식(Consciousness)

    데이비드 찰머스(David Chalmers)는 마음을 이해하는 데 두 가지 문제를 식별했으며, 이를 "쉬운 문제"와 "어려운 문제"로 명명했습니다. 쉬운 문제는 뇌가 신호를 처리하고, 계획을 세우며, 행동을 제어하는 방식을 이해하는 것입니다. 어려운 문제는 이것이 어떻게 느껴지거나 왜 무언가를 느껴야 하는지를 설명하는 것입니다. 우리가 정말로 무언가를 느낀다고 생각하는 것이 맞다면 말이죠(데넷(Dennett)의 의식 환상론은 이것이 환상이라고 주장합니다). 인간의 정보 처리 과정을 설명하는 것은 쉽지만, 인간의 주관적 경험을 설명하는 것은 어렵습니다. 예를 들어, 색맹인 사람이 자신의 시야에 있는 물체 중 어떤 것이 빨간색인지를 학습했다고 상상하는 것은 쉽지만, 그 사람이 빨간색이 어떻게 보이는지를 알기 위해 필요한 것이 무엇인지를 이해하는 것은 명확하지 않습니다.

    1.6.3.2. 계산주의와 기능주의(Computationalism and functionalism)

    계산주의(Computationalism)는 마음 철학에서 인간의 마음이 정보 처리 시스템이며, 사고가 일종의 계산이라는 입장입니다. 계산주의은 마음과 몸의 관계가 소프트웨어와 하드웨어의 관계와 유사하거나 동일하다고 주장하며, 따라서 마음-몸 문제에 대한 해결책이 될 수 있다고 봅니다. 이 철학적 입장은 1960년대 인공지능(AI) 연구자들과 인지 과학자들의 작업에서 영감을 받았으며, 철학자 제리 포더(Jerry Fodor)와 힐러리 퍼트넘(Hilary Putnam)에 의해 처음 제안되었습니다.

    철학자 존 설(John Searle)은 이 입장을 "강한 AI"라고 특징지었습니다. "적절히 프로그래밍된 컴퓨터는 올바른 입력과 출력을 통해 인간이 마음을 가진 것과 정확히 같은 의미로 마음을 가질 것입니다." 설은 이에 대해 중국어 방 논증(Chinese room argument)으로 반박하며, 기계가 인간 행동을 완벽하게 모방하더라도 그것이 마음을 가지고 있다는 이유는 없다고 주장합니다.

    1.6.3.3. AI 복지와 권리(AI welfare and rights)

    고도화된 AI가 감각(느낄 수 있는 능력)을 가지고 있는지, 그리고 있다면 어느 정도인지를 신뢰성 있게 평가하기는 어렵거나 불가능합니다. 하지만 특정 기계가 느끼고 고통을 겪을 가능성이 있다면, 동물과 유사하게 특정 권리나 복지 보호 조치를 받을 자격이 있을 수 있습니다. 사피언스(고도의 지능과 관련된 식별력이나 자기 인식과 같은 능력 집합)는 AI 권리의 또 다른 도덕적 근거를 제공할 수 있습니다. 로봇 권리는 자율 에이전트를 사회에 통합하는 실질적인 방법으로 제안되기도 합니다.

    2017년, 유럽 연합(European Union)은 가장 능력 있는 AI 시스템에 "전자 인격(Electronic Personhood)"을 부여하는 방안을 고려했습니다. 이는 회사의 법적 지위와 유사하게 권리와 책임을 부여하는 것이었습니다. 그러나 2018년 비평가들은 AI 시스템에 권리를 부여하는 것이 인간의 권리의 중요성을 폄하할 수 있으며, 법률은 미래의 추측 시나리오보다는 사용자 요구에 초점을 맞춰야 한다고 주장했습니다. 또한 로봇이 스스로 사회에 참여할 수 있는 자율성이 부족하다는 점도 지적했습니다.

    AI의 진보는 이 주제에 대한 관심을 증가시켰습니다. AI 복지와 권리의 지지자들은 AI의 감각이 발생할 경우 이를 부정하기가 특히 쉬울 것이라고 주장합니다. 그들은 이 문제가 노예제나 공장식 농업과 유사한 도덕적 사각지대가 될 수 있으며, 감각 있는 AI가 생성되어 부주의하게 착취될 경우 대규모 고통을 초래할 수 있다고 경고합니다.

    1.7. 미래(Future)

    1.7.1. ​초지능과 특이점(Superintelligence and the singularity)

    ​초지능(Superintelligence)은 가장 밝고 재능 있는 인간의 지능을 훨씬 능가하는 지능을 가진 가상의 에이전트를 의미합니다.

    만약 인공지능(Artificial General Intelligence) 연구가 충분히 지능적인 소프트웨어를 만들어낸다면, 이 소프트웨어는 스스로를 재프로그래밍하고 개선할 수 있을 것입니다. 개선된 소프트웨어는 스스로를 더 잘 개선할 수 있게 되어, I. J. 굿(I. J. Good)이 "지능 폭발(intelligence explosion)"이라고 부르고, 버너 빈지(Vernor Vinge)가 "특이점(singularity)"이라고 부른 현상이 일어날 수 있습니다.

    그러나 기술은 무한히 기하급수적으로 개선될 수 없으며, 일반적으로 S자형 곡선을 따르며 기술의 물리적 한계에 도달하면 속도가 느려집니다.

    1.7.2. 트랜스휴머니즘(Transhumanism)

    로봇 디자이너 한스 모라벡(Hans Moravec), 인공두뇌학자(cyberneticist) 케빈 워윅(Kevin Warwick), 발명가 레이 커즈와일(Ray Kurzweil)은 미래에 인간과 기계가 더 능력 있고 강력한 사이보그(cyborgs)로 합쳐질 것이라고 예측했습니다. 이 아이디어는 올더스 헉슬리(Aldous Huxley)와 로버트 에팅거(Robert Ettinger)의 사상에 뿌리를 두고 있으며, 트랜스휴머니즘(Transhumanism)이라고 불립니다.

    에드워드 프레드킨(Edward Fredkin)은 "인공지능이 진화의 다음 단계"라고 주장하며, 이는 1863년에 새뮤얼 버틀러(Samuel Butler)의 "기계들 사이의 다윈(Darwin among the Machines)"에서 처음 제안되었고, 조지 다이슨(George Dyson)이 1998년 같은 제목의 책에서 확장한 아이디어입니다.

    1.8. 소설 속에서(In fiction)

    ​생각할 수 있는 인공 존재는 고대부터 이야기 장치로 등장했으며, 과학 소설에서 지속적인 주제였습니다.

    이 작품들에서 흔히 볼 수 있는 클리셰는 메리 셸리(Mary Shelley)의 "프랑켄슈타인(Frankenstein)"에서 시작되었습니다. 여기서 인간의 창조물이 그 주인에게 위협이 되는 상황을 묘사합니다. 이는 아서 C. 클라크(Arthur C. Clarke)와 스탠리 큐브릭(Stanley Kubrick)의 "2001: 스페이스 오디세이(2001: A Space Odyssey)"(1968)의 할(HAL) 9000, 터미네이터(The Terminator, 1984)와 매트릭스(The Matrix, 1999)와 같은 작품에서도 나타납니다. 이에 반해 "지구가 멈춘 날(The Day the Earth Stood Still, 1951)"의 고트(Gort)와 "에이리언(Aliens, 1986)"의 비숍(Bishop)과 같은 드문 충성스러운 로봇들은 대중문화에서 덜 두드러집니다.

    아이작 아시모프(Isaac Asimov)는 많은 책과 이야기에서 세 가지 로봇 공학의 법칙을 소개했으며, 특히 "멀티백(Multivac)" 시리즈에서 같은 이름의 초지능 컴퓨터를 다루고 있습니다. 아시모프의 법칙은 기계 윤리에 대한 대중적인 토론에서 자주 언급되지만, 거의 모든 인공지능 연구자들은 아시모프의 법칙을 잘 알고 있으면서도 그 법칙을 애매모호함 등 여러 이유로 쓸모없다고 간주합니다.

    여러 작품에서는 인공지능을 통해 우리가 인간이라는 것의 본질을 대면하게 합니다. 이 작품들은 인공 존재가 감정을 느끼고 따라서 고통을 경험할 수 있는 능력을 보여줍니다. 이는 카렐 차페크(Karel Čapek)의 "로섬의 유니버설 로봇(R.U.R.)", 영화 "A.I. 인공지능(A.I. Artificial Intelligence)"과 "엑스 마키나(Ex Machina)", 필립 K. 딕(Philip K. Dick)의 소설 "안드로이드는 전기 양의 꿈을 꾸는가?(Do Androids Dream of Electric Sheep?)"에서 나타납니다. 딕은 인공지능으로 만들어진 기술이 인간 주관성에 대한 우리의 이해를 어떻게 변화시키는지를 고려합니다.

    인공지능
    인공지능


    https://en.wikipedia.org/w/index.php?title=Artificial_intelligence&oldid=1225341927

    이 문서는 2024년 5월 25일 (토) 22:55 (KST)에 마지막으로 편집되었습니다.
    수정된 부분은 붉은색으로 표시되었습니다.

    https://creativecommons.org/licenses/by-sa/4.0/deed.ko

Designed by Tistory.