이번 주 AI: OpenAI, 과연 믿을 수 있을까?

TechCrunch의 AI 칼럼인 이번 주 AI에서는 최근 몇 달 동안 OpenAI의 부적절한 행동을 살펴봅니다.

2024년 6월 1일 오후 12:56- 4달 전TECHCRUNCH.COM- Kyle Wiggers

이번 주 AI: OpenAI, 과연 믿을 수 있을까?

요약생성

바쁠 때는 리얼라이즈가 내용을 요약해 드려요.

AI처럼 빠르게 발전하는 산업을 따라잡는 것은 쉽지 않은 일입니다. AI가 대신해 줄 수 있을 때까지 머신 러닝 세계의 최신 소식과 직접 다루지 않은 주목할 만한 연구 및 실험을 간략하게 정리해 보았습니다.

참고로 TechCrunch는 6월 5일에 AI 뉴스레터를 출시할 계획입니다. 계속 지켜봐 주세요. 그동안 이전에는 격주(또는 그 정도)였던 AI 칼럼의 게재 빈도를 매주로 늘릴 예정이니 더 많은 기사를 기대해 주세요.

이번 주 AI에서는 OpenAI가 비영리 단체 및 교육 기관 고객을 위한 할인 플랜을 출시하고 악의적인 행위자가 AI 도구를 악용하는 것을 막기 위한 최근 노력을 공개했습니다. 비판할 거리는 별로 없습니다. 적어도 이 글을 쓰는 사람의 생각은 그렇습니다. 하지만 최근 쏟아지는 비판적인 언론 보도에 대응하기 위해 발표 시기를 조절한 것처럼 보인다는 점은 말씀드리겠습니다.

먼저 Scarlett Johansson부터 시작해 보겠습니다. OpenAI는 사용자들이 Johansson의 목소리와 섬뜩할 정도로 비슷하다고 지적하자 AI 기반 챗봇인 ChatGPT에서 사용하던 목소리 중 하나를 삭제했습니다. Johansson은 나중에 성명을 통해 변호사를 선임하여 해당 목소리에 대해 문의하고 개발 방식에 대한 정확한 세부 정보를 얻었으며, ChatGPT에 자신의 목소리를 라이선스하라는 OpenAI의 거듭된 요청을 거부했다고 밝혔습니다.

현재 워싱턴포스트에 실린 기사에서는 OpenAI가 실제로 Johansson의 목소리를 복제하려고 하지 않았으며 유사점은 우연의 일치라고 시사합니다. 하지만 그렇다면 왜 OpenAI의 CEO인 Sam Altman은 비슷한 목소리가 등장하는 화려한 데모를 선보이기 이틀 전에 Johansson에게 연락하여 재고해 달라고 했을까요? 좀 수상합니다.

그리고 OpenAI의 신뢰와 안전 문제도 있습니다.

이달 초에 보도했듯이, “초지능” AI 시스템을 관리하고 조종하는 방법을 개발하는 역할을 맡은 OpenAI의 Superalignment 팀(현재는 해체됨)은 회사 컴퓨팅 리소스의 20%를 약속받았지만 실제로는 극히 일부만 받았습니다. 이는(다른 이유들 중에서도) 팀의 공동 책임자인 Jan Leike와 OpenAI의 전 수석 과학자인 Ilya Sutskever의 사임으로 이어졌습니다.

작년에 12명에 가까운 안전 전문가들이 OpenAI를 떠났습니다. Leike를 포함한 여러 전문가들은 OpenAI가 안전 및 투명성 노력보다 상업적 프로젝트를 우선시한다는 우려를 공개적으로 표명했습니다. 비판에 대응하여 OpenAI는 회사 프로젝트 및 운영과 관련된 안전 및 보안 결정을 감독할 새로운 위원회를 구성했습니다. 하지만 외부 관찰자가 아닌 Altman을 포함한 회사 내부자들로 위원회를 구성했습니다. 이는 OpenAI가 전통적인 영리 모델을 위해 비영리 구조를 포기하는 것을 고려하고 있다는 보도가 나온 가운데 나온 것입니다.

이러한 사건들은 날이 갈수록 힘과 영향력이 커지고 있는 OpenAI(뉴스 매체와의 계약 참조)를 신뢰하기 어렵게 만듭니다. 신뢰할 만한 기업은 거의 없습니다. 하지만 OpenAI의 시장 파괴적인 기술은 이러한 위반 행위를 더욱 심각하게 만듭니다.

Altman 자신이 진실성의 등불이 아니라는 사실도 도움이 되지 않습니다.

OpenAI의 전 직원에 대한 공격적인 전술에 대한 소식(제한적인 기밀 유지 계약에 서명하지 않으면 기득권을 잃거나 지분 매각을 금지하겠다고 직원들을 위협하는 전술)이 전해지자 Altman은 사과하며 자신은 그러한 정책에 대해 알지 못했다고 주장했습니다. 하지만 Vox에 따르면 Altman의 서명은 해당 정책을 제정한 설립 서류에 있습니다.

그리고 작년 말 Altman을 해임하려고 시도했던 전 이사회 멤버 중 한 명인 OpenAI의 전 이사회 멤버 Helen Toner의 말이 사실이라면 Altman은 정보를 숨기고 OpenAI에서 일어나고 있는 일을 잘못 전달했으며 경우에 따라서는 이사회에 노골적으로 거짓말을 했습니다. Toner는 이사회가 ChatGPT 출시 소식을 Altman이 아니라 트위터를 통해 알게 되었고, Altman이 OpenAI의 공식적인 안전 관행에 대해 잘못된 정보를 제공했으며, OpenAI를 비판적으로 조명한 Toner가 공동 저술한 학술 논문에 불만을 품은 Altman이 이사회 멤버들을 조종하여 Toner를 이사회에서 쫓아내려고 했다고 말합니다.

좋은 징조는 아닙니다.

다음은 지난 며칠 동안 주목할 만한 다른 AI 소식입니다.

  • 음성 복제가 쉬워졌습니다: 디지털 혐오 대응 센터(Center for Countering Digital Hate)의 새로운 보고서에 따르면 AI 기반 음성 복제 서비스를 이용하면 정치인의 발언을 매우 쉽게 위조할 수 있다고 합니다.
  • Google의 AI 개요의 어려움: Google이 이달 초 Google 검색에서 더 광범위하게 출시하기 시작한 AI 생성 검색 결과인 AI 개요는 개선이 필요합니다. Google도 이를 인정하지만 빠르게 개선하고 있다고 주장합니다. (두고 보겠습니다.)
  • Paul Graham의 Altman에 대한 발언: 스타트업 액셀러레이터인 Y Combinator의 공동 설립자인 Paul Graham은 X에 올린 일련의 게시물에서 Altman이 2019년에 잠재적인 이해 상충으로 인해 Y Combinator 사장직에서 사임하라는 압력을 받았다는 주장을 일축했습니다. (Y Combinator는 OpenAI의 소액 주주입니다.)
  • xAI, 60억 달러 모금: Elon Musk의 AI 스타트업인 xAI는 OpenAI, Microsoft, Alphabet 등 경쟁업체와의 경쟁을 위해 자본을 확보하면서 60억 달러의 자금을 조달했습니다.
  • Perplexity의 새로운 AI 기능: Ivan의 보도에 따르면 AI 스타트업인 Perplexity는 새로운 기능인 Perplexity Pages를 통해 사용자가 시각적으로 더 매력적인 형식으로 보고서, 기사 또는 가이드를 만들 수 있도록 지원하는 것을 목표로 합니다.
  • AI 모델이 좋아하는 숫자: Devin은 서로 다른 AI 모델이 무작위 답변을 제공하는 작업을 수행할 때 선택하는 숫자에 대해 글을 썼습니다. 알고 보니 좋아하는 숫자가 있었는데, 이는 각 모델이 학습한 데이터를 반영하는 것입니다.
  • Mistral, Codestral 출시: Microsoft의 지원을 받고 60억 달러의 가치를 지닌 프랑스 AI 스타트업인 Mistral은 Codestral이라는 코드 생성 AI 모델을 처음으로 출시했습니다. 하지만 Mistral의 매우 제한적인 라이선스로 인해 상업적으로 사용할 수 없습니다.
  • 챗봇과 개인 정보 보호: Natasha는 유럽 연합의 ChatGPT 태스크포스와 AI 챗봇의 개인 정보 보호 규정 준수를 해결하기 위한 첫 번째 조치에 대해 글을 썼습니다.
  • ElevenLabs의 사운드 생성기: 음성 복제 스타트업인 ElevenLabs는 2월에 처음 발표된 새로운 도구를 선 introduced는데, 이 도구를 사용하면 프롬프트를 통해 음향 효과를 생성할 수 있습니다.
  • AI 칩용 인터커넥트: Microsoft, Google, Intel을 포함한(Arm, Nvidia, AWS 제외) 기술 대기업들은 차세대 AI 칩 구성 요소 개발을 지원하기 위해 UALink Promoter Group이라는 산업 그룹을 결성했습니다.