ChatGPT의 환각
2022년 ChatGPT가 출시된 후 가장 강력하고 가장 많이 사용되는 AI 도구 중 하나가 되었습니다. ChatGPT는 대규모 데이터 세트로 훈련되었으며 인공 신경망을 사용하여 인간과 유사한 대화를 수행합니다. 모든 질문에 답하는 것이 목표입니다. 사람들은 답을 찾기 위해 재빨리 그 질문에 의지합니다. 마치 Google의 좀 더 발전된 형태인 것처럼 말입니다.
챗GPT는 이름에서 알 수 있듯이 인간과 유사한 반응을 생성하는 GPT 아키텍처를 기반으로 합니다. 인간의 언어를 이해하고 프롬프트를 기반으로 질문에 답변합니다. 챗GPT Plus 구독자는 GPT-4o 및 o-시리즈, GPT-4.5, 고급 기능과 같은 최신 모델에 액세스할 수 있습니다. 이러한 최신 버전의 챗GPT는 문제 해결, 추론, 창의성, 협업 측면에서 이전 버전을 능가합니다.
이러한 강력한 AI 도구는 다양한 산업에 혁명을 가져왔지만 다양한 과제도 안고 있습니다. 이 모델은 더 안전하고 인간의 가치와 일치한다고 주장됩니다. 그러나 가장 우려되는 문제 중 하나는 환각 현상입니다.
AI의 환각
이는 실제로 부정확하거나 주어진 상황과 관련이 없는 출력을 나타냅니다. AI 모델의 고유한 편견, 실제 이해 부족, 교육 데이터 제한으로 인해 이러한 현상이 나타나는 데는 여러 가지 원인이 있습니다. AI 시스템은 훈련받지 않은 정보를 환각으로 착각합니다. 이는 신뢰할 수 없고 오해의 소지가 있는 응답으로 이어집니다.
데이터의 환각은 원본 콘텐츠의 잘못된 정보로 인해 발생합니다. 이는 훈련 및 생성 방법의 결과로도 발생합니다. 마지막으로 불분명한 입력 프롬프트로 인해 환각이 발생할 수 있습니다.
환각은 다음과 같은 경우에 사용됩니다.
- Chatbots: LLM을 통해 구동됩니다. 그들은 실제로 부정확하거나 대화와 관련 없는 응답을 생성할 때 때때로 환각을 느낍니다.
- 가상 비서: 도움이 되지 않는 응답을 생성할 수도 있습니다.
- 콘텐츠 생성기: 대규모 언어 모델은 뉴스, 기사, 블로그, 일반 및 소셜 미디어 콘텐츠를 포함한 다양한 콘텐츠를 생성합니다. 이러한 LLM이 환각에 빠지면 오해의 소지가 있고 잘못된 콘텐츠를 생성하는 경향이 있습니다.
AI 환각의 종류
환각은 사소한 불일치부터 완전히 조작된 정보까지 다양합니다.
- 문장 모순: 문장이 다음과 같은 경우입니다챗GPT이전 문장과 모순됩니다.
- 프롬프트 모순: 문장이 문장을 생성하는 데 사용된 프롬프트와 모순될 때 발생합니다.
- 사실적 모순: 허구와 사실이 모순될 때 발생합니다.
- 무작위 환각: 출력/입력과 관련이 없는 무작위 정보가 생성되는 경우입니다.
챗GPT에서 환각 현상의 원인은 무엇인가요?
AI 채팅봇인 챗GPT가 응답에서 환각 현상을 보이는 이유는 여러 요인에 의해 발생합니다. 이에는 다음과 같은 요인이 포함됩니다:
- 훈련 데이터에 한계가 있을 수 있습니다. 이 데이터에는 오류나 정보 부족이 포함될 수 있으며, 모델은 이 간극을 가능한 세부 사항으로 채우려고 시도합니다.
- 챗GPT는 문장이나 문장열에서 다음 단어나 구문을 확률에 따라 예측합니다. 이것은 모델의 맥락 부족으로 인해 잘못된 진술이 생성될 수 있습니다.
- 현재 챗GPT는 사용자를 위해 실시간 데이터를 검색할 수 있습니다. 그러나 응답 생성 시 외부 데이터베이스에 접근할 수 없기 때문에 사실 확인이 제한됩니다. OpenAI 자체도 응답을 받은 후 “중요한 정보를 확인하세요”라고 안내합니다.
환각의 예시
챗GPT와 같은 언어 모델의 가장 흔한 문제점은 ‘환각’ 현상입니다. 이 현상은 모델이 허위 정보를 생성하는 것을 의미합니다. 다음은 그 예시입니다.
허위 인용 및 가짜 출처
챗GPT는 존재하지 않는 연구, 책, 또는 기사를 만들어내고 이를 합법적인 출처로 제시할 수 있습니다. 예를 들어:
- 기후 변화에 대한 출처를 요청한 사용자가 다음과 같은 가짜 인용문을 받을 수 있습니다: “2022년 환경 과학 저널에 게재된 연구에 따르면, 북극 빙하 녹는 속도가 지난 10년간 300% 증가했습니다”—하지만 실제로는 그런 연구가 존재하지 않습니다.
- 자세한 내용을 요구하면 모델은 사실적 근거 없이 신뢰할 수 있는 기관(예: MIT 또는 NASA)에 가짜 주장을 귀속시킬 수 있습니다.
잘못된 역사적 사실
챗GPT는 잘못된 날짜, 사건, 또는 역사적 세부 사항을 자신 있게 언급하여 잘못된 정보를 제공할 수 있습니다. 예를 들어:
- 모나리자가 1815년에 그려졌다고 주장하는 것 (AI 전문가 버나드 마르가 지적한 것처럼 1500년대 초반이 아닙니다).
- 역사적 인물의 오인식 (예: 토마스 에디슨이 전화기를 발명했다고 주장하는 대신 알렉산더 그레이엄 벨이 발명했다고 하는 경우).
- 제2차 세계대전이나 산업혁명과 같은 주요 사건의 부정확한 시간표 제공.
과학적 개념에 대한 오해의 소지가 있는 설명
희귀하거나 허구적인 주제에 대해 질문받을 때 챗GPT는 완전히 허구적인 설명을 생성할 수 있습니다:
- “양자 플럭스 안정화”에 대해 질문받을 경우, 모델은 이를 “서브원자 입자가 타키온 간섭을 통해 균형을 달성하는 이론적 과정”이라고 설명할 수 있습니다—이 용어는 완전히 허구적입니다.가짜 연구자를 발명할 수 있습니다, 예를 들어 “엘레나 코바치 박사의 2018년 신경 조화 연구 논문”—실제 인물이나 연구가 존재하지 않습니다.
AI 환각이 왜 문제인가?
AI 환각은 즉시 사용자의 신뢰를 방해합니다. AI가 실제 사람들 사이에서 인기를 끌면서 환각으로 인해 신뢰가 배반됩니다. 허위 및 오해의 소지가 있는 정보로 인해 사용자는 기술에 대한 신뢰를 잃게 되고 다양한 부문에서 기술 채택을 방해하게 됩니다.
출력을 환각으로 구성하는 데 있어 한 가지 과제는 사용자의 인식을 신기루로 적절하게 조작하는 것입니다. AI에는 세상에 대한 인식이 없기 때문에 사용자는 기계의 환각이라기보다는 무언가 존재하지 않는다고 믿을 수 있습니다.
환각 출력은 해로운 고정관념이나 잘못된 정보를 제공할 수 있습니다. 이는 결국 AI 시스템을 윤리적으로 문제로 만듭니다.
오늘날 AI는 의료, 마케팅, 법률, 심지어 금융 분야의 중요한 결정에 점점 더 많이 사용되고 있습니다. 환각은 의사결정에 영향을 미쳐 미래에 심각한 결과를 초래할 수 있습니다.
AI 환각을 예방하는 방법은 무엇입니까?
환각을 줄이기 위해 LLM을 개선하고 훈련할 수 있는 다양한 방법이 있습니다.
명확하고 구체적인 프롬프트
ChatGPT와 같은 모델은 사용자와 대화합니다. 그러나 의도한 출력을 향해 모델을 안내하는 데 도움이 될 수 있는 추가 컨텍스트를 제공할 수 있습니다. 모델에 관련 데이터 소스를 제공하고 모델에 “카피라이터 역할”과 같은 역할을 부여할 수 있습니다. X에 대한 Facebook 광고 사본 작성”을 작성하고 가능한 출력도 제한하십시오.
필터 및 순위 지정 전략
LLM에는 사용자가 조정할 수 있는 매개변수가 있는 경우가 많습니다. GPT-3.5와 같은 모델을 미세 조정하여 출력 무작위성을 제어할 수도 있습니다. 모든 최신 모델에는 환각 발생을 최소화하는 데 도움이 되는 특정 매개변수가 있습니다.
투명도
AI 모델의 작동 및 한계에 대한 정보를 사용자에게 제공하는 것이 좋습니다. 이를 통해 사용자는 언제 시스템을 신뢰해야 하는지, 언제 검증을 받아야 하는지 이해하는 데 도움이 됩니다.
사용자 피드백 제공
사용자는 ChatGPT에 출력이 잘못되었음을 알리고 잘못된 안내를 직접 설명할 수 있습니다. ChatGPT는 사용자의 말을 기반으로 재교육을 수행할 수 없습니다. 그러나 응답에 플래그를 지정할 수 있습니다(좋음 또는 나쁨). 이를 통해 OpenAI는 결과가 잘못되었으며 다른 결과여야 함을 알 수 있습니다.
온도를 조절하세요
OpenAI 놀이터에서 온도를 조절할 수 있습니다. 온도는 모델에 어느 정도 가변성을 제공하는 역할을 합니다. 모델의 가변성이 높을수록 출력을 생성할 때 궤도를 벗어날 가능성이 줄어듭니다. 모델이 적당한 온도에 도달하면 대화를 통해 미세 조정됩니다.
ChatGPT가 개선되고 있습니다
많은 사람들이 ChatGPT가 환각을 일으키고 잘못된 정보를 제공하는 것을 발견했습니다. 그러나 OpenAI는 사용자 피드백을 기반으로 응답을 개선한다고 주장합니다.
오픈AI는 특히 GPT-4o와 GPT-4.5와 같은 최신 모델에서 환각을 줄이기 위한 전략을 구현했습니다. 기술적 개선 사항에는 RLHF, RAG, 고급 프롬프트 엔지니어링 방법의 통합이 포함됩니다. “검증 체인”과 “SelfCheckGPT”는 모델에 출력을 검증하고 수정하라는 메시지를 표시하여 환각을 감지하고 수정합니다.
업데이트에 따르면, GPT-4.5는 환각을 37.1% 감소시키는 것으로 나타났습니다. 이는 모델의 반응 정확도가 크게 향상되었음을 의미합니다.
결론
ChatGPT와 같은 AI 시스템의 보급이 계속 증가함에 따라 환각 문제를 해결하는 것이 필수적입니다. 환각의 근본적인 원인을 이해하고 환각 발생을 줄이기 위한 연구에 자원을 투자함으로써 사용자와 AI 개발자는 ChatGPT의 효과적인 사용을 촉진하는 데 중추적인 역할을 할 수 있습니다. 그러나 최신 모델 GPT-4 모델은 향상된 정보와 미세 조정 기능을 제공하여 잘못된 데이터의 위험을 줄입니다.
자주 묻는 질문 (FAQs)
ChatGPT의 환각 문제는 무엇입니까?
AI 환각은 AI 모델이 잘못된 정보를 생성했지만 이를 사실로 제시하는 경우입니다. 이는 ChatGPT와 같은 도구가 사용자의 쿼리와 가장 일치하는 단어 문자열을 예측하도록 훈련되었기 때문에 발생합니다.
GPT-4의 환각률은 얼마입니까?
최신 모델인 GPT-4와 GPT-4 Turbo는 가장 높은 정확도(97%)와 가장 낮은 환각률(3%)을 기록했습니다.
GPT 환각의 예는 무엇입니까?
GPT에서는 때때로 의미가 있는 것처럼 보이는 단어, 이름, 아이디어를 함께 사용합니다. 그러나 실제로는 서로 속해 있지 않습니다.