ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 오픈AI, GPT-4 이후 차세대 플래그십 AI 모델 훈련 시작
    인공지능 2024. 5. 28. 23:10

    OpenAI가 자사의 최신 플래그십 인공지능(AI) 모델 훈련을 시작했다고 발표했습니다. 이는 GPT-4를 잇는 기술로, 인기 있는 온라인 챗봇인 ChatGPT를 구동하는 핵심 기술입니다. 이와 함께 OpenAI는 AI의 위험성을 다루기 위해 새로운 안전 및 보안 위원회를 구성한다고 밝혔습니다.

    OpenAI는 블로그 게시물을 통해 새로운 모델이 "차세대 기능"을 제공할 것이며, "인공 일반 지능(AGI)"을 구축하기 위한 노력의 일환이라고 설명했습니다. 인공지능 일반 지능은 인간 두뇌가 할 수 있는 모든 것을 수행할 수 있는 기계를 의미합니다. 이 새로운 모델은 챗봇, 애플의 시리와 같은 디지털 어시스턴트, 검색 엔진 및 이미지 생성기 등 다양한 AI 제품의 엔진이 될 것입니다.

    안전 및 보안 위원회 구성

    OpenAI는 새로운 모델 및 미래 기술의 위험을 처리하는 방법을 탐구하기 위해 새로운 안전 및 보안 위원회를 구성한다고 발표했습니다. "우리는 기능과 안전 면에서 업계 선두를 달리는 모델을 구축하고 출시하는 것을 자랑스럽게 생각하지만, 이 중요한 순간에 활발한 토론을 환영합니다."라고 회사는 밝혔습니다.

    OpenAI는 AI 기술을 경쟁사보다 더 빠르게 발전시키는 동시에, 기술이 점점 더 위험해지고 있다는 비판을 달래기 위해 노력하고 있습니다. AI 기술이 허위 정보를 확산시키고, 일자리를 대체하며, 심지어 인류를 위협할 수도 있다는 우려가 제기되고 있습니다. 전문가들은 기술 기업이 인공지능 일반 지능에 도달하는 시기에 대해 의견이 엇갈리지만, OpenAI, 구글, 메타, 마이크로소프트와 같은 회사들은 지난 10여 년 동안 AI 기술의 힘을 꾸준히 증가시켜왔습니다.

    GPT-4의 진화와 논란

    OpenAI의 GPT-4는 2023년 3월에 출시되어 질문에 답변하고, 이메일을 작성하며, 연구 논문을 작성하고, 데이터를 분석하는 챗봇 및 기타 소프트웨어 애플리케이션을 가능하게 합니다. 이번 달에 공개된 기술의 업데이트 버전은 아직 널리 이용 가능하지 않지만, 이미지 생성 및 매우 대화형 목소리로 질문과 명령에 응답할 수 있습니다.

    OpenAI가 업데이트된 버전인 GPT-4o를 공개한 지 며칠 후, 배우 스칼렛 요한슨은 이 기술이 "내 목소리와 매우 흡사하다"고 밝혔습니다. 그녀는 OpenAI의 CEO인 샘 알트먼이 이 제품을 위해 그녀의 목소리를 라이선스하려는 시도를 거부했으며, 변호사를 고용하여 OpenAI에게 목소리 사용을 중단할 것을 요청했다고 말했습니다. 회사는 해당 목소리가 요한슨의 것이 아니라고 주장했습니다.

    AI 모델 훈련과 향후 일정*

    GPT-4o와 같은 기술은 방대한 양의 디지털 데이터, 사진, 비디오, 위키피디아 기사, 책 및 뉴스 기사 등을 분석하여 학습합니다. AI 모델의 디지털 "훈련"은 수개월 또는 수년이 걸릴 수 있습니다. 훈련이 완료되면, AI 회사들은 일반적으로 몇 개월 동안 기술을 테스트하고 공개 사용을 위해 세부 조정을 합니다.

    이는 OpenAI의 다음 모델이 9개월에서 1년 이상의 시간이 걸릴 수 있음을 의미합니다.

    안전 및 보안 정책 개발

    OpenAI는 새로운 모델을 훈련하는 동안, 새로운 안전 및 보안 위원회가 기술을 보호하기 위한 정책과 절차를 다듬을 것이라고 밝혔습니다. 위원회에는 샘 알트먼을 비롯하여 OpenAI 이사회 멤버인 브렛 테일러, 아담 디앤젤로, 니콜 셀리그만이 포함됩니다. 회사는 새로운 정책이 여름 말 또는 가을에 시행될 수 있다고 밝혔습니다.

    이번 달 초, OpenAI의 공동 창립자이자 안전 노력의 리더 중 한 명인 일야 수츠케버가 회사를 떠난다고 발표했습니다. 이는 OpenAI가 AI의 위험을 충분히 다루지 못하고 있다는 우려를 불러일으켰습니다.

    내부 갈등과 리더십 변화

    수츠케버 박사는 11월에 다른 세 명의 이사회 멤버와 함께 샘 알트먼을 OpenAI에서 제거하려 했으며, 알트먼이 인류의 이익을 위한 인공지능 일반 지능을 창출하려는 회사의 계획을 더 이상 신뢰할 수 없다고 주장했습니다. 알트먼의 동맹들의 로비 캠페인 이후, 그는 5일 만에 복직되었으며 이후 회사에 대한 통제권을 재확립했습니다.

    수츠케버 박사는 미래의 AI 모델이 해를 끼치지 않도록 보장하는 방법을 탐구하는 초정렬(Superalignment) 팀을 이끌었습니다. 그는 점점 더 AI가 인류에 위협이 될 수 있다는 우려를 제기했습니다. 이번 달, 수츠케버 박사와 함께 초정렬 팀을 운영했던 얀 라이키도 회사를 떠나 팀의 미래가 불확실해졌습니다.

    결론

    OpenAI의 새로운 플래그십 모델 훈련과 안전 및 보안 위원회 구성은 AI 기술의 진화와 함께 그 위험을 어떻게 관리할 것인지에 대한 중요한 문제를 제기합니다. 기술의 발전 속도와 그에 따른 사회적, 윤리적 논의는 앞으로의 AI 개발에 중요한 영향을 미칠 것입니다. OpenAI의 이러한 움직임은 AI의 미래와 그 잠재적 영향에 대한 다양한 시각을 반영하며, 기술 발전과 함께 그 위험을 균형 있게 관리하는 것이 필요하다는 점을 강조합니다.

    오픈AI, 차세대 플래그십 AI 모델 훈련 시작
    오픈AI, 차세대 플래그십 AI 모델 훈련 시작


    https://www.nytimes.com/2024/05/28/technology/openai-gpt4-new-model.html

Designed by Tistory.