요약생성
바쁠 때는 리얼라이즈가 내용을 요약해 드려요.
대규모 언어 모델(LLM)은 인공 지능 분야에서 가장 어려운 과제 중 하나에서 진전을 이루었습니다. LLM은 인상적인 일관성과 언어적 정확성으로 텍스트를 생성할 수 있습니다.
그러나 LLM은 종종 간단한 작업에서 실패합니다. 간단한 초등 수학 문제를 계산하도록 Bing Chat에 요청한 다음 예를 생각해 보세요. 보다 체계적인 방식으로 문제를 공식화하려고 시도했을 때조차 완전히 실패했습니다.
어떤 사람들은 Bing Chat에서 다른 변형 문제가 작동한다는 것을 발견했습니다. 어떤 사람들은 Bing Chat을 “창의적” 모드에서 사용할 때 잘 작동한다는 것을 발견했습니다. ChatGPT에서 동일한 문제를 시도했지만 똑같이 잘못된 결과가 나왔습니다. 일부 사용자는 ChatGPT의 GPT-4 버전에서 작동하도록 했습니다. 그러나 요점은 LLM이 이러한 기본적인 구체적인 지식과 추론이 필요한 문제에서 일관성 없이 수행된다는 것입니다.
이는 LLM의 더 큰 문제 중 일부를 나타냅니다. 이러한 문제를 해결하려면 언어 모델과 AI에 대한 접근 방식을 보다 근본적으로 변경해야 할 수 있습니다. 그러나 그동안 몇 가지 새로운 솔루션이 등장하여 일상적인 애플리케이션에서 언어 모델을 보다 강력하게 만드는 데 도움이 되고 있습니다. 그중에는 LLM을 다른 특수 애플리케이션과 결합한 기술인 증강 언어 모델이 있습니다.
다음 토큰 예측의 문제
언어 모델에 사용되는 아키텍처인 트랜스포머는 “다음 토큰 예측”을 위해 설계되었습니다. 매우 큰 텍스트, 코드, 수학 등의 코퍼스에 대한 학습 후 모델은 프롬프트를 보고 다음에 무엇이 나올지 예측할 수 있습니다. 이는 번역, 기사 생성, 텍스트 요약과 같은 많은 작업에 매우 효과적입니다.
그러나 모든 문제에 예측 솔루션이 있는 것은 아닙니다. 예를 들어 이 기사의 시작 부분에 언급된 수학 문제에는 매우 결정론적인 답이 있습니다. 답변을 다른 문장으로 공식화하고 싶을 수도 있습니다.
그러나 각 사람이 가지고 있는 공의 수와 같은 핵심 요소는 추측이 필요하지 않습니다. 기본적으로 자연어로 공식화되었든 방정식으로 작성되었든 모든 수학 문제는 동일한 특징을 가지고 있습니다.
다음 토큰 예측의 또 다른 문제는 때때로 “환각 문제”라고 하는 근거입니다. LLM은 그럴듯하지만 반드시 사실일 필요는 없는 텍스트를 생성합니다. 이벤트 날짜, 지리적 위치, 사람 이름과 같은 것들은 대부분 추측이나 예측이 필요하지 않습니다. 신뢰할 수 있는 출처에서 검색할 수 있습니다.
예를 들어 ChatGPT에게 우주에 간 100번째 사람이 누구인지 물었습니다. Ultima 시리즈(제가 가장 좋아하는 시리즈 중 하나)의 제작자인 Lord British 자신인 Richard Garriott이라고 했습니다. 그런 다음 반대 질문을 했더니 Garriott이 우주에 간 100번째 사람이 아니라고 했습니다. (2011년 Wired 기사에 따르면 Garriott은 우주에 간 483번째 사람이었습니다. Wikipedia에 따르면 Leonid Kizim과 Gennadi Strekalov는 99번째와 100번째 우주 여행자였습니다.)
LLM을 일반 형식으로 사용하는 데에는 두 가지 문제가 더 있습니다. 첫째, 언어 모델을 학습하는 데는 비용과 시간이 많이 듭니다. 이것이 바로 지식이 생성되는 속도만큼 모델을 빠르게 업데이트할 수 없는 이유입니다. 둘째, LLM은 간단한 문제에 대한 매우 비효율적인 솔루션입니다. GPT-3 및 ChatGPT만큼 큰 LLM에는 수백 기가바이트의 메모리가 필요하며 예측하는 모든 토큰에 대해 수십억 개의 작업을 실행합니다. 간단한 수학 및 지식 검색 문제에는 이러한 계산 집약적인 솔루션이 필요하지 않습니다.
증강 언어 모델은 LLM을 외부 지식 소스와 결합하여 이러한 문제를 해결합니다. 저는 일반적으로 인간 지능과 비유하지 않지만 여기서는 예외를 두겠습니다. 인간이 자신의 지식의 한계를 인식하고 외부 도구(계산기, 검색 엔진, 백과사전 등)를 사용하여 정보를 검색하고 사실을 확인할 수 있는 것처럼 증강 언어 모델은 외부 소스를 사용하여 출력을 개선합니다. 다음은 증강 언어 모델의 몇 가지 예입니다.
검색 증강 언어 모델링
언어 모델을 증강하려는 초기 노력 중 하나는 Google의 검색 증강 언어 모델링(REALM)입니다. REALM은 언어 모델을 외부 지식 소스에서 문서를 가져오는 “신경 검색기”와 결합합니다. REALM 모델이 프롬프트를 받을 때마다 신경 검색기는 Wikipedia 텍스트 코퍼스에서 관련 데이터를 가져옵니다. 프롬프트에 컨텍스트로 지식을 추가하여 LLM이 보다 정확한 정보를 제공할 수 있도록 합니다.
검색 증강 언어 모델링(출처: Google AI 블로그)
보다 최근의 검색 증강 접근 방식은 AI21 Labs의 컨텍스트 내 RALM입니다. 컨텍스트 내 RALM은 API를 통해 액세스할 수 있는 모델을 포함하여 여러 종류의 LLM에 추가할 수 있습니다. RALM의 기본 아이디어는 지식 문서를 검색하여 대화의 컨텍스트에 삽입하는 것입니다. 예를 들어 ChatGPT와 대화하는 경우 검색기는 컨텍스트를 위해 대화 기록에 지식을 삽입합니다.
기본적으로 검색 증강은 언어 생성을 지식에서 분리합니다. LLM의 역할은 언어적으로 올바른 출력을 생성하는 것입니다. 검색기는 올바른 지식을 얻어 삽입합니다. AI21 Labs의 실험에 따르면 검색 증강 LLM은 더 작은 모델과 학습 데이터 세트로도 고품질 출력을 생성할 수 있습니다. 또한 새로운 지식으로 지속적으로 재교육할 필요가 없습니다.
Bing의 새로운 채팅 기능은 ChatGPT와 Microsoft의 검색 엔진을 결합하여 검색 증강을 사용합니다. Bing Chat은 프롬프트에서 검색어를 생성하고, 관련 문서를 검색하고, 결과에 대한 컨텍스트로 사용합니다. 또한 Bing Chat은 생성하는 문장에 대한 정보 출처에 대한 링크를 제공합니다.
저는 Linux Python 버전 업데이트부터 일반 정보 찾기에 이르기까지 모든 종류의 작업에 Bing Chat을 사용했습니다. 완벽하지 않고 여전히 잘못된 부분이 있지만 적어도 답변을 확인할 수 있는 출처를 얻을 수 있습니다. 예를 들어 우주에 간 100번째 사람이 누구인지 물었을 때 보수적으로 답변하며 관련 정보를 찾을 수 없다고 했습니다. 그러나 Richard Garriott이 우주에 간 100번째 사람인지 물었을 때 그는 그렇다고 잘못 말했습니다.
API 증강 언어 모델
언어 모델을 증강하는 또 다른 흥미로운 접근 방식은 Meta AI 연구원의 “Toolformer” 기술입니다. Toolformer의 아이디어는 LLM이 외부 API를 사용하여 출력에 대한 관련 정보를 얻도록 학습시키는 것입니다. 이러한 API는 수학 솔버, 질문 답변 시스템, 검색 엔진을 포함한 광범위한 서비스를 제공합니다.
학습하는 동안 Toolformer에는 API를 사용하는 방법을 보여주는 제한된 수의 사람이 주석을 단 예제가 제공됩니다. 그런 다음 모델은 자기 지도 학습을 사용하여 각 API를 어디에 사용할지 결정합니다. 예를 들어 프롬프트에 수학적 계산이 포함된 경우 Toolformer는 다음 토큰 예측을 통해 답을 추측하는 대신 수학 API를 호출합니다.
검색 증강과 마찬가지로 Toolformer를 사용하면 LLM이 적은 비용으로 더 많은 작업을 수행할 수 있습니다. Meta AI 팀의 실험에 따르면 67억 개의 매개변수가 있는 Toolformer는 여러 작업에서 가장 큰 GPT-3 모델(1,750억 개의 매개변수)보다 성능이 뛰어났습니다.
API를 호출하는 Toolformer 언어 모델의 예
API는 LLM 애플리케이션에 큰 영향을 미칠 수 있습니다. 최근에 OpenAI는 ChatGPT용 플러그인을 출시했습니다. Toolformer와 마찬가지로 ChatGPT 플러그인은 LLM에 API 엔드포인트를 제공합니다. OpenAI의 문서에 따르면 “OpenAI는 최종 사용자에게 보이지 않는 메시지에 플러그인에 대한 간략한 설명을 ChatGPT에 삽입합니다. 여기에는 플러그인 설명, 엔드포인트 및 예제가 포함됩니다.” 모델은 관련 API를 호출하고 결과를 응답에 통합합니다. ChatGPT는 Wolfram, Zapier, Expedia, Instacart를 포함한 여러 애플리케이션을 지원합니다. 이를 통해 LLM은 최신 정보를 검색하고 복잡한 수학을 수행할 수 있습니다.
또한 이러한 API는 ChatGPT가 정보를 검색하는 도구일 뿐만 아니라 작업을 수행하는 도구가 될 수 있는 길을 열어줍니다. ChatGPT 플러그인을 사용하여 레스토랑 테이블을 예약하고, 음식을 주문하고, 다른 작업을 수행할 수 있습니다. 이는 새로운 애플리케이션 플랫폼의 기반이 될 수 있습니다.
그러나 LLM을 사용하여 작업을 수행하려면 여전히 주의와 추가 조사가 필요합니다. OpenAI에서 경고하는 바와 같이 “플러그인이 유해하거나 의도하지 않은 행동을 취하여 안전 문제를 증가시키고, 사기를 치거나, 오도하거나, 다른 사람을 학대하려는 악의적인 행위자의 기능을 증가시킬 위험이 있습니다. 가능한 애플리케이션의 범위를 넓힘으로써 플러그인은 새로운 영역에서 모델이 취한 실수나 잘못 정렬된 행동으로 인한 부정적인 결과의 위험을 증가시킬 수 있습니다.”
증강 언어 모델은 아직 초기 단계입니다. LLM 시장을 둘러싼 경쟁이 치열해짐에 따라 더 새롭고 강력한 증강 기술이 등장할 것으로 예상할 수 있습니다.