AI 분야 여성 리더: 사라 마이어스 웨스트, '왜 AI를 만들어야 하는가?' 질문을 던지다

TechCrunch의 'AI 분야 여성' 시리즈의 일환으로 소개된 사라 마이어스 웨스트는 AI Now 연구소의 이사입니다.

2024년 5월 25일 오후 2:00- 4달 전TECHCRUNCH.COM- Kyle Wiggers

AI 분야 여성 리더: 사라 마이어스 웨스트, '왜 AI를 만들어야 하는가?' 질문을 던지다

요약생성

바쁠 때는 리얼라이즈가 내용을 요약해 드려요.

AI에 중점을 둔 여성 학자들과 다른 여성들에게 당연히 받아야 할 - 그리고 오랫동안 지연되어 온 - 주목을 주기 위해 TechCrunch는 AI 혁명에 기여한 놀라운 여성들을 중심으로 한 일련의 인터뷰를 게재해 왔습니다. AI 붐이 계속되는 동안 올해 내내 이러한 글들을 게재하며, 종종 인정받지 못하는 중요한 작업을 조명합니다. 더 많은 프로필은 여기에서 확인하세요.

사라 마이어스 웨스트는 AI Now 연구소의 이사입니다. AI Now 연구소는 AI의 사회적 영향과 기술 산업의 권력 집중 문제를 연구하는 미국의 연구 기관입니다. 그녀는 이전에 미국 연방 거래 위원회에서 AI 수석 고문을 역임했으며, 노스이스턴 대학교의 방문 연구 과학자이자 코넬 대학교 시민과 기술 연구소의 연구 기여자입니다.

AI 분야에 어떻게 처음 발을 들여놓게 되었나요? 이 분야에 매력을 느낀 이유는 무엇인가요?

저는 지난 15년 동안 국제 거버넌스 최전선에 등장한 기술 회사들의 강력한 정치적 행위자로서의 역할을 탐구해 왔습니다. 저는 커리어 초기에 미국 기술 회사들이 동남아시아, 중국, 중동 등 전 세계적으로 정치 지형을 바꾸는 방식으로 진출하는 것을 직접 목격했고, 이에 대한 책을 쓰면서 이론적으로는 대안 기술을 제공했지만 실제로는 실현되지 못한 인터넷 감시 비즈니스 모델의 기원을 형성한 산업 로비와 규제에 대해 깊이 파고들었습니다.

저는 커리어의 여러 시점에서 “왜 우리는 이렇게 디스토피아적인 미래에 갇히게 되는가?”라는 의문을 품었습니다. 그 답은 기술 자체와는 거의 관련이 없고, 공공 정책과 상업화와 밀접한 관련이 있습니다.

그 이후로 연구 경력과 AI Now의 공동 이사로서의 정책 업무를 통해 이 문제를 계속 다루고 있습니다. AI가 우리 일상 생활의 인프라를 구성하는 부분이라면, AI를 생산하는 기관을 비판적으로 검토하고, 규제를 통해서든 조직을 통해서든 사회적으로 충분한 마찰을 일으켜 궁극적으로 기술 회사가 아니라 공공의 필요를 충족시키도록 해야 합니다.

AI 분야에서 가장 자랑스럽게 생각하는 작업은 무엇인가요?

저는 FTC에 있을 때 했던 작업을 매우 자랑스럽게 생각합니다. FTC는 AI를 규제 집행하는 최전선에 있는 미국 정부 기관입니다. 저는 직접 사건을 처리하며 팔을 걷어붙이고 일하는 것을 정말 좋아했습니다. 연구자로서의 방법론 훈련을 활용하여 조사 작업에 참여할 수 있었는데, 도구는 본질적으로 동일합니다. 이러한 도구를 사용하여 권력을 직접 책임지게 하고, AI가 노동자의 가치를 떨어뜨리고 가격을 인상하는 데 사용되는 방식이나 빅테크 회사들의 반경쟁적 행위를 막는 등 이러한 작업이 공공에 즉각적인 영향을 미치는 것을 보는 것은 만족스러운 일이었습니다.

우리는 백악관 과학기술정책실에서 일하는 훌륭한 기술자 팀을 영입할 수 있었고, 그곳에서 했던 기반 작업이 생성형 AI의 등장과 클라우드 인프라의 중요성과 함께 즉각적인 관련성을 갖게 되는 것을 보는 것은 흥미로운 일입니다.

AI가 진화함에 따라 AI가 직면하는 가장 시급한 문제는 무엇인가요?

무엇보다도 AI 기술은 병원, 학교, 국경 등 매우 민감한 맥락에서 널리 사용되고 있지만, 여전히 제대로 테스트되고 검증되지 않았습니다. 이것은 오류가 발생하기 쉬운 기술이며, 독립적인 연구에 따르면 이러한 오류는 고르게 분포되지 않고 오랫동안 차별의 짐을 짊어져 온 공동체에 불균형적으로 피해를 입히는 것으로 나타났습니다. 우리는 훨씬 더 높은 기준을 설정해야 합니다. 하지만 저에게 더욱 우려스러운 것은 강력한 기관들이 AI가 작동하든 안 하든, 가자에서 민간인에 대한 무기 사용부터 노동자의 권리 박탈에 이르기까지 그들의 행동을 정당화하는 데 AI를 사용하는 것입니다. 이것은 기술의 문제가 아니라 담론의 문제입니다. 즉, 기술에 대한 우리의 문화를 어떻게 조정하고 AI가 관련되어 있으면 특정 선택이나 행동이 더 “객관적”으로 여겨지거나 어떤 식으로든 용서받는다는 생각을 어떻게 조정해야 하는지에 대한 문제입니다.

AI를 책임감 있게 구축하는 가장 좋은 방법은 무엇인가요?

우리는 항상 다음 질문에서 시작해야 합니다. 왜 AI를 구축해야 하는가? 무엇이 인공 지능의 사용을 필요하게 만드는가? 그리고 AI 기술이 그 목적에 적합한가? 때로는 더 나은 것을 구축하는 것이 답이고, 그럴 경우 개발자는 법규 준수를 보장하고, 시스템을 철저히 문서화하고 검증하며, 가능한 한 공개적으로 투명하게 만들어 독립적인 연구자들이 동일한 작업을 수행할 수 있도록 해야 합니다. 하지만 다른 경우에는 아예 구축하지 않는 것이 답입니다. 우리는 더 많은 “책임감 있게 구축된” 무기나 감시 기술을 필요로 하지 않습니다. 최종 사용이 이 질문에 중요하며, 바로 거기서부터 시작해야 합니다.