요약생성
바쁠 때는 리얼라이즈가 내용을 요약해 드려요.
AI에 중점을 둔 여성 학자들과 다른 사람들에게 그들이 마땅히 받아야 할 - 그리고 오랫동안 기다려온 - 주목을 받도록 하기 위해, 테크크런치는 AI 혁명에 기여한 놀라운 여성들에게 초점을 맞춘 일련의 인터뷰를 게재해왔습니다. AI 붐이 계속됨에 따라 올해 내내 이러한 글들을 게재하여 종종 인정받지 못하는 중요한 작업을 강조할 것입니다. 더 많은 프로필을 여기에서 읽어보세요.
미리엄 포겔은 EqualAI의 CEO입니다. EqualAI는 AI에서 무의식적인 편견을 줄이고 책임감 있는 AI 거버넌스를 촉진하기 위해 만들어진 비영리 단체입니다. 그는 또한 최근 출범한 국가 AI 자문위원회의 의장을 맡고 있으며, 이 위원회는 의회의 위임을 받아 조 바이든 대통령과 백악관에 AI 정책을 자문하고 있습니다. 그는 조지타운 대학교 로스쿨에서 기술 법과 정책을 가르치고 있습니다.
포겔은 이전에 법무부 부차관보를 역임하며 법무장관과 부장관에게 광범위한 법률, 정책 및 운영 문제에 대해 자문했습니다. 책임감 있는 AI 연구소 이사회 멤버이자 민주주의 및 기술 센터의 선임 고문으로서 포겔은 여성, 경제, 규제 및 식품 안전 정책에서부터 형사 사법 문제에 이르기까지 백악관 지도부에 자문을 해왔습니다.
간략하게, AI 분야에서 어떻게 시작하게 되었나요? 어떤 점에 매력을 느꼈나요?
저는 정부에서 일하는 것으로 경력을 시작했습니다. 처음에는 11학년 여름 방학 전에 상원 인턴으로 일했습니다. 저는 정책에 매료되어 다음 몇 년 동안 여름을 의회와 백악관에서 일하며 보냈습니다. 그 당시 저는 시민권에 집중했는데, 이는 인공지능으로 가는 전통적인 길은 아니지만, 돌이켜보면 완벽한 의미가 있습니다.
법학대학원을 졸업한 후, 저의 경력은 지적 재산에 특화된 엔터테인먼트 변호사에서부터 행정부에서 시민권과 사회적 영향력을 미치는 일을 하는 것으로 발전했습니다. 백악관에서 일하는 동안 동일한 임금 태스크 포스를 이끌었고, 전 부장관 샐리 예이츠 하에서 부차관보로 근무하는 동안 연방 법 집행 기관을 위한 암묵적 편견 훈련을 만들고 개발하는 것을 주도했습니다.
저는 기술 분야의 변호사로서의 경험과 편견과 체계적인 피해를 해결하는 정책적 배경을 바탕으로 EqualAI를 이끌어 달라는 요청을 받았습니다. 저는 이 단체에 매력을 느꼈는데, AI가 다음 시민권의 개척지라는 것을 깨달았기 때문입니다. 경계하지 않으면 수십 년간의 진보가 코드 몇 줄로 무너질 수 있습니다.
저는 항상 혁신으로 인해 만들어지는 가능성에 대해 흥분했고, 여전히 AI가 더 많은 인구가 번영할 수 있도록 놀라운 새로운 기회를 제공할 수 있다고 믿습니다. 하지만 이 중요한 시점에 우리가 더 많은 사람들이 AI의 창조와 개발에 의미 있는 방식으로 참여할 수 있도록 주의 깊게 보장해야만 가능합니다.
남성 중심적인 기술 산업, 그리고 그 연장선상에서 남성 중심적인 AI 산업의 어려움을 어떻게 헤쳐나가나요?
저는 근본적으로 우리 모두가 AI가 가능한 한 효과적이고 효율적이며 유익하도록 하는 데 역할을 해야 한다고 믿습니다. 즉, AI 개발에 있어 여성의 목소리를 더 많이 지원해야 한다는 것을 의미합니다(참고로 여성은 미국에서 구매의 85% 이상을 차지하므로 여성의 관심사와 안전을 통합하는 것은 현명한 사업적 결정입니다). 또한 다양한 연령, 지역, 민족 및 국적의 충분히 참여하지 못하는 다른 소외된 인구 집단의 목소리도 포함해야 합니다.
우리가 성별 균형을 향해 나아가면서, 개발자를 위해서만 작동하는 AI가 아니라 모든 소비자를 위해 작동하는 AI를 개발하기 위해 더 많은 목소리와 관점이 고려되어야 합니다.
AI 분야에 진출하려는 여성들에게 어떤 조언을 해주고 싶나요?
첫째, 시작하기에 너무 늦은 때는 없습니다. 결코. 저는 모든 조부모님들이 OpenAI의 ChatGPT, Microsoft의 Copilot 또는 Google의 Gemini를 사용해 보시기를 권장합니다. 우리 모두는 AI 기반 경제가 될 미래에서 번영하기 위해 AI에 대한 이해를 높여야 합니다. 그리고 그것은 흥미진진한 일입니다! 우리 모두는 역할을 해야 합니다. AI 분야에서 경력을 시작하든 AI를 사용하여 자신의 업무를 지원하든, 여성들은 AI 도구를 사용해 보고, 이러한 도구가 무엇을 할 수 있고 무엇을 할 수 없는지, 자신에게 적합한지, 전반적으로 AI에 정통해져야 합니다.
둘째, 책임감 있는 AI 개발에는 윤리적인 컴퓨터 과학자 이상이 필요합니다. 많은 사람들이 AI 분야는 컴퓨터 과학 또는 다른 STEM 학위를 요구한다고 생각하지만, 실제로 AI는 모든 배경의 여성과 남성의 관점과 전문 지식을 필요로 합니다. 뛰어들어보세요! 당신의 목소리와 관점이 필요합니다. 당신의 참여가 매우 중요합니다.
AI가 진화함에 따라 AI가 직면한 가장 시급한 문제는 무엇인가요?
첫째, AI 리터러시를 더욱 높여야 합니다. EqualAI에서는 AI가 우리 경제에 전례 없는 기회를 제공하고 우리의 일상생활을 개선할 것이라고 생각하기 때문에 “AI 순이익”이라고 말합니다. 하지만 이러한 기회가 더 많은 인구 집단에 공평하게 제공되고 유익해야만 가능합니다. 우리의 현재 노동력, 차세대, 조부모님 - 우리 모두 - AI의 혜택을 누리기 위해 필요한 지식과 기술을 갖추어야 합니다.
둘째, AI 시스템을 평가하기 위한 표준화된 측정 및 지표를 개발해야 합니다. 표준화된 평가는 AI 시스템에 대한 신뢰를 구축하고 소비자, 규제 기관 및 하류 사용자가 참여하는 AI 시스템의 한계를 이해하고 그 시스템이 우리의 신뢰를 받을 만한 가치가 있는지 결정할 수 있도록 하는 데 필수적입니다. 시스템이 누구를 위해 만들어졌는지, 예상되는 사용 사례를 이해하는 것은 이 중요한 질문에 답하는 데 도움이 될 것입니다. 누구에게 이 시스템이 실패할 수 있을까요?
AI 사용자들이 알아야 할 문제는 무엇인가요?
인공지능은 그대로 _인공적_입니다. 인간이 인간의 인지 능력을 “모방”하고 인간의 추구를 강화하기 위해 만든 것입니다. 우리는 적절한 수준의 회의심을 유지하고 이 기술을 사용할 때 적절한 실사를 수행하여 우리의 신뢰를 받을 만한 시스템에 신뢰를 두고 있는지 확인해야 합니다. AI는 인간을 _보완_할 수 있지만 _대체_할 수 없습니다.
AI는 알고리즘(인간이 만든)과 데이터(인간의 대화와 상호 작용을 반영)라는 두 가지 주요 구성 요소로 이루어져 있다는 사실을 분명히 인식해야 합니다. 그 결과 AI는 인간의 결점을 반영하고 적응시킵니다. 편견과 피해는 인간이 작성한 알고리즘을 통해 또는 인간의 삶을 스냅샷으로 보여주는 데이터를 통해 AI 수명 주기 전반에 걸쳐 내재될 수 있습니다. 그러나 모든 인간의 접점은 잠재적인 피해를 식별하고 완화할 수 있는 기회입니다.
사람은 자신의 경험만큼 폭넓게 상상할 수 있고, AI 프로그램은 만들어진 구조에 의해 제한되기 때문에, 다양한 관점과 경험을 가진 사람들이 팀에 많을수록 AI에 내재된 편견과 기타 안전 문제를 발견할 가능성이 높아집니다.
AI를 책임감 있게 구축하는 가장 좋은 방법은 무엇인가요?
우리의 신뢰를 받을 만한 AI를 구축하는 것은 우리 모두의 책임입니다. 다른 사람이 우리를 대신해 해줄 것이라고 기대할 수 없습니다. 우리는 세 가지 기본적인 질문을 시작으로 해야 합니다. (1) 이 AI 시스템은 누구를 위해 만들어졌나요? (2) 예상되는 사용 사례는 무엇인가요? (3) 누구에게 이 시스템이 실패할 수 있을까요? 이러한 질문을 염두에 두더라도 피할 수 없는 함정이 있을 것입니다. 이러한 위험을 완화하기 위해 설계자, 개발자 및 배포자는 모범 사례를 따라야 합니다.
EqualAI에서는 프레임워크를 계획하고 책임성을 보장하고, 테스트, 문서화 및 정기 감사를 표준화하는 것을 포함하는 좋은 “AI 위생”을 장려합니다. 또한 최근에 책임감 있는 AI 거버넌스 프레임워크를 설계하고 운영하기 위한 가이드를 발표했으며, 이 가이드는 조직에서 AI를 책임감 있게 구현하기 위한 가치, 원칙 및 프레임워크를 명확하게 보여줍니다. 이 논문은 내부적으로나 공개적으로 책임감 있는 방식으로 AI 시스템을 채택, 개발, 사용 및 구현하기 위해 노력하는 규모, 분야 또는 성숙도에 관계없이 모든 조직을 위한 리소스 역할을 합니다.
투자자는 책임감 있는 AI를 위해 어떻게 더 잘 밀어붙일 수 있을까요?
투자자는 우리의 AI가 안전하고 효과적이며 책임감 있도록 하는 데 큰 역할을 합니다. 투자자는 자금을 요청하는 회사가 AI 시스템에서 잠재적인 피해와 책임을 인식하고 완화하는 방법에 대해 생각하고 있는지 확인할 수 있습니다. “AI 거버넌스 관행을 어떻게 도입했습니까?”라는 질문만 해도 더 나은 결과를 보장하는 의미 있는 첫걸음입니다.
이러한 노력은 공공의 이익을 위해서만 좋은 것이 아니라, 투자한 회사와 관련된 회사가 나쁜 헤드라인과 소송에 휘말리지 않도록 보장하고 싶어하는 투자자의 이익에도 부합합니다. 신뢰는 회사의 성공을 위한 몇 안 되는 비협상 사항 중 하나이며, 책임감 있는 AI 거버넌스에 대한 약속은 공공의 신뢰를 구축하고 유지하는 가장 좋은 방법입니다. 강력하고 신뢰할 수 있는 AI는 사업적으로도 타당합니다.
AI 뉴스레터를 출시합니다! 6월 5일부터 받아보려면 여기에서 신청하세요.