AI 헛소리 막을 '확실한 해법'..'한국 천재들' 돌파구 찾았다 (에디터픽) / SBS

SBS 뉴스
0 | 1 | 26-04-29 09:42
https://youtu.be/dcsvMlyhhAI

핵심 요약

AI의 환각 현상(할루시네이션) 문제를 지적하고, 국내 연구팀이 이 현상의 원인을 규명하며 AI의 신뢰성을 높일 수 있는 새로운 해결책을 제시했다는 내용의 영상입니다.

상세 분석

Scene

챗GPT가 이정후 선수의 홈런 개수를 틀리게 답하거나, 3년 전 세종대왕이 맥북을 던진 사건이 조선왕조실록에 기록됐다는 황당한 허위 정보를 생성하는 사례를 보여주며 AI의 할루시네이션 문제를 제기합니다. 시청자들은 AI의 부정확한 정보에 대한 불신과 불편함을 토로합니다.

Scene

국내 연구팀이 AI 환각 현상의 원인을 규명하는 데 성공했음을 알립니다. AI가 학습 초기 단계에 의미 없는 노이즈 데이터에 과도하게 반응하여 '세종대왕'과 '맥북'처럼 아무 관련 없는 단어를 연결 짓는 잘못된 연관성을 학습하는 것이 문제의 핵심임을 설명합니다.

Scene

카이스트 뇌인지과학과 백세범 교수는 AI가 의미 없는 데이터를 잠깐 학습하여 실제로는 아무것도 모르는 상태에서 겉만 그럴듯한 신경망 상태를 만든다고 설명합니다. 이러한 초기 단계의 잘못된 학습이 AI 환각 현상의 주요 원인이며, 이를 해결하기 위한 연구의 중요성을 강조합니다.

Scene

국내 연구팀은 AI가 학습 초기에 노이즈에 과민 반응하지 않도록 하는 '워밍업 훈련'이라는 새로운 해법을 제시했습니다. 이 연구 결과는 국제 학술지 '네이처 커뮤니케이션즈'에 게재되었으며, 자율주행 AI 등 다양한 분야에 도입되어 AI의 신뢰성을 크게 높일 수 있을 것으로 기대됩니다.

핵심 포인트

AI는 '할루시네이션' 현상으로 황당한 허위 정보를 사실처럼 생성하여 사용자들의 신뢰를 저하시킨다. 국내 연구팀이 AI 환각 현상이 학습 초기 단계의 노이즈 데이터에 대한 과도한 반응 때문에 발생함을 규명했다. 연구팀은 노이즈에 과민 반응하지 않도록 하는 '워밍업 훈련' 해법을 제시했으며, 이는 자율주행 등 AI의 신뢰성을 높이는 데 기여할 것으로 기대된다.