Microsoft의 ChatGPT 통합으로 더 나은 검색 경험을 준비하세요?
Microsoft의 ChatGPT-Bing 통합은 데이터 문제를 해결하지만, 진짜 과제는 하나의 답변을 줄 때와 여러 답변을 줄 때를 구분할 수 있는 인터페이스를 설계하는 것입니다.
이 글은 2023에 작성되었습니다. 이후 일부 내용이 달라졌을 수 있습니다.
이번 주, 일부 뉴스 매체에서 Microsoft가 ChatGPT 기능을 Bing 검색에 통합하는 작업을 하고 있다고 보도했습니다. 이전에 "ChatGPT가 Google을 대체할 것인가?"에 대해 글을 쓴 적이 있어, 여기에 추가적인 생각을 제공하고자 합니다.
웹 콘텐츠 인덱싱은 더 이상 장벽이 아닙니다
Microsoft는 2019년에 OpenAI에 $10억을 투자한 것으로 알려져 있습니다. 이는 두 회사 간의 파트너십이 최소 3년 이상 진행되어 왔다는 것을 의미합니다. Bing 검색은 당연히 웹을 인덱싱할 수 있으므로, OpenAI가 ChatGPT 데이터셋을 2021년 이후로 확장하려 할 때 웹 콘텐츠 인덱싱이 문제가 되지 않는다고 가정해야 합니다. Microsoft의 규모를 고려하면, 실시간 인덱싱/크롤링 능력도 Google에 비해 꽤 우수할 것으로 가정할 수 있습니다.
Bing은 이미 이미지, 비디오 콘텐츠 등을 데이터셋의 일부로 보유하고 있으므로, 이 역시 OpenAI의 ChatGPT에 장벽이 되지 않을 것입니다.
Bing 검색은 콘텐츠 신뢰도를 비교적 잘 평가할 수 있습니다
최근의 Google 검색과 Bing 검색 결과 비교를 살펴보지는 않았지만, 콘텐츠의 신뢰도를 판단하는 두 회사의 역량 차이가 크지 않다고 보는 것이 안전합니다. 따라서 Microsoft의 도움으로 가장 정확한 답변을 찾는 것은 OpenAI/ChatGPT에게 큰 장벽이 아닐 수 있습니다.
구체적인 예로, ChatGPT는 업데이트된 서비스 평점 데이터가 없어서 "내 근처 최고의 배관공" 또는 "내 근처 최고의 중국 식당"과 같은 지역 서비스에 대한 질문에 답할 수 없습니다. 이런 부분에서 Microsoft 데이터셋이 도움이 됩니다.
사용자 인터페이스 문제
ChatGPT 경험이 얼마나 사용자 친화적인지에 대한 타당한 주장이 있지만, 모든 질문/쿼리에 대해 하나의 경험이 맞는 것은 아닙니다. 많은 경우에 사용자는 여러 답변을 보고 싶어합니다. 예를 들어, 위의 같은 지역 서비스의 경우, 사용자는 보통 적합한 선택지 목록을 보고 싶어합니다. 그런 경우 사용자가 ChatGPT 프롬프트를 "내 근처 최고의 xyz 서비스"에서 "내 근처 최고의 xyz 서비스 5개를 알려줘"로 수정해야 한다고 주장할 수 있습니다.
하지만 저는 이것만으로는 충분하지 않다고 주장합니다. 검색 엔진은 많은 경우에 하나의 최고의 답변이나 짧은 최선의 답변 목록이 없다는 것을 충분히 인지할 수 있을 정도로 지능적이어야 합니다. 최고의 답변은 상황/맥락에 따라 다릅니다.
또한, 사실과 의견이 있습니다. 이 둘은 완전히 다릅니다.
따라서 여러 시나리오에 최적인 사용자 인터페이스를 설계하는 방법이 핵심입니다. 예를 들어, "베트남 바게트 레시피" :D 같은 간단한 것도, 2023년 1월 기준으로 Google, Bing, ChatGPT에서 얻는 결과는 이렇습니다. 어느 것이 더 나은지 또는 ChatGPT 답변이 더 나은지 명확하지 않습니다.
따라서 핵심은 머신러닝을 사용하여 사용자 의도에 따라 검색 결과 인터페이스를 동적으로 변경하는 것입니다. 이것이 얼마나 쉽거나 어려운지는 잘 모르겠습니다. 하지만 ChatGPT의 단일 답변 스타일과 검색 엔진의 장점을 결합하는 것이 논리적인 단계인 것 같습니다.
언어 어시스턴트
순수한 정보 검색 관점에서 답변을 제공하는 것이 사람들이 ChatGPT를 좋아하는 이유가 아니라, ChatGPT에 맥락을 제공한 다음 시를 쓰거나, 소개글을 작성하거나, 에세이를 쓰는 등의 언어 관련 작업을 완료하도록 하는 능력이 그 이유라고 주장합니다.
이 사용 사례는 검색 엔진과는 매우 다르며, PowerPoint 내러티브를 생성하거나 Microsoft Word에서 글을 쓰는 능력과 더 밀접하게 관련됩니다. 그래서 실제로 Microsoft가 다양한 OpenAI 기능을 Office 365 제품군에 통합한다는 뉴스가 더 좋은 소식이라고 생각합니다.
언어의 한계
Jacob Browning과 Yann Lecun이 ChatGPT가 대중에게 공개되기 전인 2022년 8월에 AI와 언어의 한계에 대한 훌륭한 기사를 작성했습니다. 그들의 기사는 LaMDA를 참조했지만, 내용은 본질적으로 ChatGPT나 다른 대규모 언어 모델에도 적용됩니다. 기사가 길어서 핵심 포인트를 원하신다면 다음과 같습니다:
한 Google 엔지니어가 최근 Google의 AI 챗봇 LaMDA를 하나의 인격체라고 선언하여 다양한 반응을 불러일으켰습니다. 챗봇 LaMDA는 주어진 텍스트에 이어질 가능성이 높은 다음 단어를 예측하도록 설계된 대규모 언어 모델(LLM)입니다.
일부 사람들은 그 아이디어를 비웃었고, 다른 사람들은 다음 AI가 인격체일 수 있다고 제안했습니다. 이러한 다양한 반응은 더 깊은 문제를 부각시킵니다: 이러한 LLM이 더 보편적이고 강력해지면서, 이를 어떻게 이해해야 하는지에 대한 합의가 줄어들고 있습니다. 근본적인 문제는 언어의 제한된 특성입니다. 이러한 시스템이 인간에게서 보는 전면적인 사고를 완전히 구현하지 못하는 피상적인 이해에 머무를 수밖에 없다는 것은 분명합니다. 이는 언어가 특정하고 제한된 종류의 지식 표현에 불과하기 때문입니다. 언어는 개별 객체, 속성, 그리고 그 사이의 관계를 표현하는 데는 뛰어나지만, 불규칙한 형태를 묘사하거나 물체의 움직임을 표현하는 등 보다 구체적인 정보를 표현하는 데는 어려움이 있습니다. 이러한 정보를 접근 가능한 방식으로 표현할 수 있는 도상적 지식이나 분산적 지식과 같은 다른 표현 체계가 있습니다.
언어는 정보를 전달하는 데 저대역폭 방법이며, 동음이의어와 대명사 때문에 모호한 경우가 많습니다. 인간은 비언어적 이해를 공유하기 때문에 완벽한 소통 수단이 필요하지 않습니다. 대규모 언어 모델(LLM)은 각 문장의 배경 지식을 파악하도록 훈련되어, 주변 단어와 문장을 통해 무슨 일이 일어나고 있는지 파악합니다. LLM은 언어에 대한 피상적인 이해를 획득했지만, 이 이해는 제한적이며 더 복잡한 대화를 위한 노하우를 포함하지 않습니다. 결과적으로, 일관성이 없거나 언어를 바꾸면 쉽게 속일 수 있습니다. LLM은 세계에 대한 일관된 관점을 발전시키는 데 필요한 이해가 부족합니다.
언어가 작은 형식으로 많은 정보를 전달할 수 있지만, 인간 지식의 많은 부분은 비언어적이며 도표, 지도, 유물, 사회적 관습 등 다른 수단을 통해 전달될 수 있습니다. 이는 언어만으로 훈련된 기계가 인간의 지능을 완전히 근사할 수 없음을 시사합니다. 좁은 병목을 통해 인간 지식의 작은 부분에만 접근할 수 있기 때문입니다. 또한 언어가 유용하려면 세계에 대한 깊은 비언어적 이해가 필요하다는 것을 암시합니다. 이는 또한 언어만으로 훈련된 기계의 지능에 한계가 있다는 것을 의미합니다.
이상 제 생각이었습니다. 어떻게 생각하시나요? Google에서 ChatGPT 기반의 Bing으로 전환하실 생각이신가요, 아니면 습관 때문에 Google을 계속 사용하시나요? :)
감사합니다,
Chandler








