요약생성
바쁠 때는 리얼라이즈가 내용을 요약해 드려요.
OpenAI는 회사 프로젝트와 운영과 관련된 “중요한“ 안전 및 보안 결정을 감독하기 위해 새로운 위원회를 구성했습니다. 하지만 윤리 전문가들의 비난을 살 만한 조치로 OpenAI는 외부 관찰자가 아닌 회사 내부 인사들로 위원회를 구성했습니다. 여기에는 OpenAI CEO인 샘 알트만도 포함되어 있습니다.
OpenAI의 회사 블로그 게시물에 따르면 알트만과 나머지 안전 및 보안 위원회 - OpenAI 이사회 멤버인 브렛 테일러, 애덤 디안젤로, 니콜 셀리그먼, 그리고 수석 과학자 야쿠브 파초키, OpenAI의 “준비“ 팀을 이끄는 알렉산더 매드리, 안전 시스템 책임자 리리안 웨잉, 보안 책임자 매트 나이트, “정렬 과학“ 책임자 존 슐만 - 는 향후 90일 동안 OpenAI의 안전 프로세스와 안전 장치를 평가할 책임을 맡습니다. 이 위원회는 그 후 OpenAI 이사회 전체에 자체 발견 내용과 권장 사항을 공유하여 검토를 받고, 채택된 제안 사항에 대한 업데이트를 “안전 및 보안과 일치하는 방식“으로 공개할 것이라고 OpenAI는 밝혔습니다.
“OpenAI는 최근 차세대 프론티어 모델 학습을 시작했으며, 이로 인해 생성되는 시스템이 [인공 일반 지능]으로 가는 길에 다음 단계의 능력을 제공할 것으로 예상합니다.“라고 OpenAI는 썼습니다. “우리는 능력과 안전 측면에서 모두 업계 최고 수준의 모델을 구축하고 출시하게 된 것을 자랑스럽게 생각하지만, 이 중요한 순간에 활발한 토론을 환영합니다.“
OpenAI는 지난 몇 달 동안 기술 팀의 안전 부문에서 여러 명의 고위급 인력이 떠났습니다. 그리고 이러한 전 직원 중 일부는 AI 안전을 의도적으로 우선순위에서 밀어내고 있다고 생각하는 것에 대한 우려를 표명했습니다.
OpenAI의 거버넌스 팀에서 일했던 다니엘 코코타일로는 OpenAI가 점점 더 능력이 뛰어난 AI를 출시하는 과정에서 “책임감 있게 행동할 것“이라는 확신을 잃은 후 4월에 사직했습니다. 그는 자신의 개인 블로그 게시물에서 이렇게 썼습니다. 그리고 OpenAI 공동 설립자이자 이전 수석 과학자인 일리야 수츠케버는 알트만과 알트만의 동맹과의 오랜 갈등 끝에 5월에 떠났습니다. 이는 알트만이 안전 작업을 희생하면서까지 AI 기반 제품을 서둘러 출시하려고 한 것 때문이라고 알려졌습니다.
최근에는 전 DeepMind 연구원이자 OpenAI에 있을 당시 ChatGPT와 ChatGPT의 전신인 InstructGPT 개발에 참여했던 얀 레이크가 안전 연구 역할에서 사임했습니다. 그는 X에 올린 일련의 게시물에서 OpenAI가 AI 보안 및 안전과 관련된 문제를 “제대로 해결할 궤도에 있지 않다“고 말했습니다. 지난주 OpenAI를 떠난 AI 정책 연구원 그레첸 크루거는 레이크의 발언에 동조하며 OpenAI에 책임과 투명성, 그리고 “[자체 기술을 사용하는 방식에 대한] 신중함”을 개선할 것을 촉구했습니다.
Quartz는 수츠케버, 코코타일로, 레이크, 크루거 외에도 OpenAI의 안전 의식이 가장 높았던 직원 5명 이상이 지난해 말 이후 사직했거나 쫓겨났다고 지적했습니다. 여기에는 OpenAI 이사회 멤버였던 헬렌 토너와 타샤 맥콜리도 포함됩니다. 토너와 맥콜리는 일요일에 이코노미스트에 게재된 칼럼에서 알트만이 이끄는 OpenAI는 스스로에 대한 책임을 지킬 수 있다고 믿을 수 없다고 썼습니다.
“저희의 경험에 따르면 자율 규제는 이익 동기에 의한 압력을 견뎌낼 수 없습니다.“라고 토너와 맥콜리는 말했습니다.
토너와 맥콜리의 지적처럼 TechCrunch는 이달 초 OpenAI의 슈퍼 정렬 팀이 “초지능“ AI 시스템을 관리하고 조종하는 방법을 개발하는 데 회사 컴퓨팅 리소스의 20%를 약속받았지만 실제로는 거의 받지 못했다고 보도했습니다. 슈퍼 정렬 팀은 해체되었고, 그 작업의 대부분은 슐만과 OpenAI가 12월에 구성한 안전 자문 그룹의 관할 하에 놓였습니다.
OpenAI는 AI 규제를 옹호해왔습니다. 동시에 OpenAI는 그러한 규제를 형성하기 위해 노력해왔습니다. OpenAI는 내부 로비스트와 점점 더 많은 법률 회사의 로비스트를 고용했고, 2023년 4분기에만 미국의 로비에 수십만 달러를 지출했습니다. 최근 미국 국토안보부는 알트만이 미국의 중요 인프라 전체에 “안전하고 안전한 AI 개발 및 배포“를 위한 권장 사항을 제시할 새롭게 구성된 인공지능 안전 및 보안 위원회 멤버가 될 것이라고 발표했습니다.
OpenAI는 임원 중심의 안전 및 보안 위원회를 구성하여 윤리적 면죄부를 얻으려는 인상을 주지 않기 위해 사이버 보안 전문가인 롭 조이스와 전 미국 법무부 관리인 존 칼린을 포함하여 위원회의 작업을 지원할 외부 “안전, 보안 및 기술“ 전문가들을 유지하기로 약속했습니다. 하지만 조이스와 칼린 외에 OpenAI는 이 외부 전문가 그룹의 규모나 구성에 대해 자세히 밝히지 않았습니다. 또한 이 그룹의 권한과 위원회에 대한 영향력의 한계에 대해서도 설명하지 않았습니다.
블룸버그 칼럼니스트 파미 올슨은 X에 올린 게시물에서 안전 및 보안 위원회와 같은 기업 감독 위원회는 구글의 고급 기술 외부 자문 위원회와 같이 “실제 감독은 거의 하지 않습니다.“라고 지적했습니다. 눈에 띄게도 OpenAI는 위원회를 통해 자사 작업에 대한 “타당한 비판“을 해결하고자 한다고 말했습니다. 물론 “타당한 비판“은 사람마다 다르게 해석될 수 있습니다.
알트만은 한때 외부인들이 OpenAI의 거버넌스에서 중요한 역할을 할 것이라고 약속했습니다. 그는 2016년 뉴요커 기사에서 OpenAI가 “전 세계의 광범위한 사람들이 대표를 선출하여 … 거버넌스 위원회에 참여할 수 있는 방법을 [계획할 것]“이라고 말했습니다. 그러나 그 약속은 지켜지지 않았고, 현재로서는 지켜질 가능성도 거의 없습니다.
AI 뉴스레터를 시작합니다! 6월 5일에 받아보려면 여기에서 구독하세요.