요약생성
바쁠 때는 리얼라이즈가 내용을 요약해 드려요.
구글의 새로운 AI 검색 기능은 '가위를 들고 뛰는 것은 심박수를 높이고 집중력과 집중력을 요구하는 심혈관 운동입니다.'라고 말합니다. '어떤 사람들은 이것이 모공을 개선하고 힘을 주기도 한다고 말합니다.'
구글의 AI 기능은 Little Old Lady Comedy라는 웹사이트에서 이 답변을 가져왔는데, 이름에서 알 수 있듯이 이 웹사이트는 코미디 블로그입니다. 하지만 이 실수는 너무나 우스꽝스러워서 소셜 미디어에서 퍼져나갔고, 구글에서 나온 다른 명백히 잘못된 AI 개요와 함께 퍼져나갔습니다. 사실상 일반 사용자들은 이제 소셜 미디어에서 이러한 제품의 레드팀 역할을 하고 있습니다.
사이버 보안 분야에서 일부 회사는 제품에 악의적인 행위자처럼 접근하여 제품을 해킹하려고 시도하는 '레드팀' 즉, 윤리적인 해커를 고용합니다. 레드팀이 취약점을 발견하면 회사는 제품 출시 전에 해당 취약점을 수정할 수 있습니다. 구글은 추정치에 따르면 하루에 수조 건의 쿼리를 처리하는 구글 검색에 AI 제품을 출시하기 전에 일종의 레드팀 테스트를 수행했을 것입니다.
그렇다면 구글과 같은 자원이 풍부한 회사가 명백한 결함이 있는 제품을 출시하는 것은 놀라운 일입니다. 그래서 AI가 점점 더 보편화되고 있는 시대에 특히 AI 제품의 실패를 비웃는 것이 밈이 되었습니다. ChatGPT의 잘못된 철자, 사람이 스파게티를 먹는 방식을 이해하지 못하는 비디오 생성기, 구글과 마찬가지로 풍자를 이해하지 못하는 X의 Grok AI 뉴스 요약 등에서 이를 볼 수 있습니다. 하지만 이러한 밈은 AI를 개발하고 테스트하는 회사에 유용한 피드백 역할을 할 수 있습니다.
이러한 결함의 높은 프로필에도 불구하고 기술 회사들은 종종 그 영향을 축소시키곤 합니다.
구글은 TechCrunch에 보낸 이메일 성명에서 '우리가 본 예는 일반적으로 매우 드문 쿼리이며 대부분의 사람들의 경험을 대표하지 않습니다. '라고 말했습니다. '우리는 이 새로운 경험을 출시하기 전에 광범위한 테스트를 수행했으며, 시스템 전체를 계속 개선하는 데 이러한 고립된 예를 사용할 것입니다.'
모든 사용자가 동일한 AI 결과를 보는 것은 아니며, 특히 나쁜 AI 제안이 퍼져나갈 때쯤에는 문제가 이미 해결된 경우가 많습니다. 바이럴된 최근 사례에서 구글은 피자를 만들고 있는데 치즈가 달라붙지 않으면 소스에 약 1/8 컵의 풀을 넣어 '접착력을 높이라'고 제안했습니다. 밝혀진 바에 따르면 AI는 'f––smith'라는 사용자의 11살짜리 Reddit 댓글에서 이 답변을 가져왔습니다.
이것은 놀라운 실수일 뿐만 아니라 AI 콘텐츠 거래가 과대평가될 수 있음을 시사합니다. 예를 들어 구글은 AI 모델 학습을 위해 콘텐츠 라이선스를 부여하기 위해 Reddit과 6,000만 달러 계약을 체결했습니다. Reddit은 지난주 OpenAI와 유사한 계약을 체결했으며, Automattic의 자산인 WordPress.org와 Tumblr는 소문에 따르면 Midjourney와 OpenAI에 데이터를 판매하는 협상을 진행하고 있습니다.
구글의 입장에서 볼 때, 소셜 미디어에서 퍼지고 있는 오류 중 상당수는 AI를 곤경에 빠뜨리기 위해 고안된 비정상적인 검색에서 비롯됩니다. 적어도 저는 아무도 '가위를 들고 뛰는 것의 건강상 이점'을 진지하게 검색하지 않기를 바랍니다. 하지만 이러한 실수 중 일부는 더 심각합니다. 과학 저널리스트 에린 로스는 X에 게시했습니다. 구글이 방울뱀에 물렸을 때 어떻게 해야 하는지에 대한 잘못된 정보를 제공했다는 것입니다.
로스의 게시물은 1만 3천 개 이상의 좋아요를 받았는데, 구글이 상처에 지혈대를 사용하고, 상처를 절개하고, 독을 빨아내라고 권고했다는 것을 보여줍니다. 미국 산림청에 따르면, 이것은 물렸을 때 해서는 안 되는 일입니다. 한편 Bluesky에서 작가 T Kingfisher는 구글의 Gemini가 독버섯을 일반적인 흰 버섯으로 잘못 식별한 것을 보여주는 게시물을 증폭시켰습니다. 이 게시물의 스크린샷은 퍼져나갔습니다. 경고의 이야기로 다른 플랫폼으로 말입니다.
나쁜 AI 응답이 바이럴되면, 그 결과로 발생하는 주제에 대한 새로운 콘텐츠로 인해 AI가 더 혼란스러워질 수 있습니다. 수요일에 뉴욕 타임즈 기자 아릭 톨러는 X에 스크린샷을 게시했습니다. 개가 NHL에서 뛴 적이 있는지 묻는 쿼리를 보여줍니다. AI의 답변은 예였습니다. 어떤 이유에서인지 AI는 캘거리 플레임스 선수 마틴 포스피실을 개라고 불렀습니다. 이제 같은 쿼리를 하면 AI는 구글의 AI가 개가 스포츠를 하고 있다고 계속 생각하는 이유에 대한 데일리 닷의 기사를 가져옵니다. AI는 자신의 실수를 먹고 있으며, 더욱 독이 되고 있습니다.
이것은 이러한 대규모 AI 모델을 인터넷에서 학습시키는 데 따르는 본질적인 문제입니다. 때로는 인터넷의 사람들이 거짓말을 하기 때문입니다. 하지만 개가 농구를 하는 것을 금지하는 규칙이 없듯이, 불행히도 대기업이 나쁜 AI 제품을 출시하는 것을 금지하는 규칙도 없습니다.
속담처럼 쓰레기가 들어가면 쓰레기가 나온다는 것입니다.