본문 바로가기
이모저모 시사상식

AI 부작용

by 안전제일무사고 2024. 1. 17.
728x90
반응형
SMALL

▲ 인공지능 할루시네이션(AI, Hallucination) ▲


인공지능(AI) 할루시네이션이란 환각이나 환청을 뜻하는 정신의학 용어 ‘할루시네이션(gallucination)’의 의미를 빌려 생성형 AI 모델이 주어진 데이터나 맥락에 근거하지 않고 부적절하거나 허위정보를 생성하는 현상을 말한다. 이 같은 현상은 우리나라에서 생성형 AI 챗GPT가 답변한 이른바 ‘세종대왕 맥북 던짐 사건’이라는 대표적인 사례를 통해 설명될 수 있다. 우리는 조선시대의 세종대왕과 현대의 ‘맥북’이 공존할 수 없기에 질문자체가 명백한 모순임을 당연히 알 수 있지만, 챗GPT는 이에 대해 사실관계를 그럴싸하게 지어내어 답변을 제공한 것이다.

업계에서는 AI 할루시네이션의 원인을 생성형 AI가 학습하는 대용량의 데이터 중에 잘못된 데이터가 포함될 수 있고, 생성형 AI는 해당 데이터에 대한 진위 판단이 불가능하기 때문이라고 지적한다. 또한 인간이 의도적으로 오염된 정보를 학습시키는 것에 대한 위험요소도 배제할 수 없다. 최근 미국과 유럽연합(EU)은 챗GPT 등 AI 부작용을 막기 위해 이른바 ‘자발적 AI 행동강령’ 마련에 착수했다.

-애드윌 시사상식 2023.07-

728x90
반응형
LIST

'이모저모 시사상식' 카테고리의 다른 글

세이브케이션(save-cation)  (0) 2024.01.17
롤링 리세션  (0) 2024.01.17
고아고객  (0) 2024.01.17
법안 발의  (0) 2024.01.17
스트로베리문  (0) 2024.01.17

댓글