본문 바로가기
IT 이야기

[생성형 AI] 할루미네이션(Hallucination) 뜻과 의미, 그리고 블레츨리 선언

by 일상행복 주식회사 2024. 7. 27.
반응형

[생성형 AI] 할루미네이션(Hallucination) 뜻과 의미, 그리고 블레츨리 선언

 

2022년 11월 OpenAI의 chatGPT 출시가 된 이후 생성형 AI의 발전은 산업생태계가 전방위적으로 확장되며 엄청나게 빠르게 변하고 있습니다.

그에 대한 생성형 인공지능의 기능과 한계, 이에 대한 대책 등 다양한 붕석도 함께 이루어지고 있습니다.

 

이제 일상에서 chatGPT 같은 생성형 AI를 사용하는 건 일상화가 되어가고 있습니다.

앞으로의 노동시장은 'AI가 일자리를 뺒는 것이 나이라 AI를 잘하는 사람이 당신의 일자리를 뺒는다'고 하더군요.

AI를 잘하는 사람에겐 기회가 열리고, AI를 못하는 사람에게는 위기가 찾아올 것이란 의미로 해석되어 생성형 AI의 현재 모습을 대변하는 말로 들립니다.

 

[생성형 AI] 생성형 AI 종류와 특징, 비교하기

(생성형 AI) chatGPT 활용, 효율적인 프롬프트 활용방법

인공지능(AI)로 만드는 초간단 유튜브 숏츠 동영상, Vrew 사용법

 

오늘은 생성형 AI에서 사용되는 할루미네이션(Hallucination)의 뜻과 의미, 그리고 2023년 11월 영국 블레츨리파크에서 인공지능에 대한 국제적 협력을 선언한 블레츨리 선언에 대해서 알아봤습니다.

 

할루미네이션(Hallucination)의 뜻과 의미

 

할루미네이션(hallucination)은 사전적 의미로 환각 또는 환영이라는 용어입니다.

사람이 보이지 않는데 사람의 목소리를 듣거나, 물체가 없는데 물체를 보는 등의 감각적 환각, 정신적인 문제나 약물의 영향 등으로 인해 나타나는 왜곡된 인식이 나타나는 심리적 환각 등이 있습니다.

 

이런 할루미네이션이 생성형 AI에서도 나타나고 있는데요.

생성형 AI에서의 할루미네이션은 인공지능 모델이 실제 데이터와 무관한 정보를 생성하는 현상을 말합니다.

주로 대규모 언어 모델에서 관찰되는데, 훈련 데이터의 부정확성, 데이터 편향, 또는 데이터 세트 간의 불일치로 인해 발생하는 것으로 알려졌습니다.

 

 

 

생성형 AI에서의 할루미네이션 현상은 여러 곳에서 사례를 찾아볼 수 있고, 할루미네이션 문제로 제미나이(Gemini)와 아숙업(AskUp) 등은 이미지 생성을 잠정 중단하는 사태까지 발생하고 있습니다.

 

2023년 5월, 맨해튼의 변호사가 ChatGPT를 주로 사용하여 작성한 법적 서류를 제출했는데요.

이 서류에 적힌 판례는 실제로 존재하지 않는 것으로 판사는 가짜 인용으로 가득차 있다고 저적했고, 해당 변호사에게 벌금형을 선고했습니다.

 

“ChatGPT 변호사” 사례는 뉴욕 타임스 기사로 화제가 되었으며, 연방 사법부의 연례 보고서에서 대법관 존 로버츠도 대규모 언어 모델의 “할루시네이션” 역할을 비판한 바 있습니다.

 

지난 2월엔 도널드 트럼프 전 미국 대통령이 체포되는 모습이 나와 이슈가 된 적이 있었는데, 이는 딥페이크(Deepfake, 딥러닝(deep learning)과 가짜(fake)의 합성어)로 만들어진 영상으로 판명되었습니다.

이런 딥페이크 사진과 영상은 유명 연예인이나 정치인들을 대상으로 종종 이슈가 되었습니다.

 

또한 이런 생성형 AI는 사용자와 대화 중 인종차별적이거나 혐오발언이라는 등 편향된 정보를 내보내고 있습니다,

 

할루미네이션의 원인으로는 잘못된 데이터나 불완전한 데이터를 학습하는 학습 데이터의 한계, 특정 데이터에 과도하게 적응하여 다른 상황에서 잘못된 결과를 낳는 모델의 과조합, 입력데이터를 기반으로 가능성이 높은 답변을 생성하는 확률적 생성 특성 때문에 발생한다고 합니다.

 

앞으로 생성형 AI가 믿고 사용할 수 있게 하기 위해서는 할루미네이션 현상을 차단해야 하는 숙제가 남아 있습니다.

AI모델의 학습데이터의 품질을 높이는 방법, 다양한 출처의 데이터를 활용하는 방법, AI가 생성한 정보를 검증하는 시시템 구축, 지속적으로 모델을 개선하고 최신데이터로 업데이트를 해야 합니다.

 

블레츨리 선언

 

블레츨리 선언은 인공지능(AI) 기술의 안전하고 책임 있는 개발 및 활용을 위한 국제적 협력을 위한 선언문입니다.

 

2023년 11월 영국 블레츨리파크에서 개최된 인공지능 안전 국제회의에서 28개국이 참여하여 채택되었는데요.

미국, 중국, 한국, 일본, 유럽연합(EU) 등이 참여하여 인공지능(AI)이 심각한 피해를 초래할 수 있다며 AI 안전과 관련해 공동으로 협력하기로 한 것입니다.

 

 

 

블레츨리 선언에 포함된 주요 원칙은 10가지입니다.

 

1) 인간의 가치와 윤리에 부합하고, 인간에게 이익이 되도록 인간중심으로 개발되어야 하고,  2) AI 시스템은 투명하고 설명 가능해야 하며, 3) AI 시스템은 안전하고 보안되어 오남용이 없어야 된다.

4) AI 시스템 개발 및 활용에 대한 책임은 명확하게 규정되어야 하고, 5) AI 시스템은 공평하고 차별적이지 않아야 하며,  6) 개인정보 보호 및 데이터 보안을 준수해야 한다.

 

7) AI 시스템은 항상 인간의 통제하에 있고 인간의 자율성을 침해해서는 안되고, 5) 사회적 영향을 평가해 잠재적 위험을 완화하기 위한 조치를 취해야 한다.

9) AI 기술 개발 및 활용에 대한 국제 협력을 강화하고, 10) 지속가능한 개발: AI 기술은 지속가능한 개발 목표 달성에 기여해야 한다.

 

블레츨리 선언 채택 이후, 각국 정부와 기관들은 선언의 원칙을 구체화하기 위한 노력을 기울이고 있으며,  AI 윤리 및 안전 관련 연구도 활발하게 진행되고 있습니다.

 

 

블레츨리 선언의 의미는 인공지능 기술의 윤리적 사용과 안전한 발전을 위한 국제적 합의를 처음으로 제시했고, AI 기술개발과  활용에 대한 국가 간 협력의 필요성을 강조하여 글로벌 AI 거버넌스 구축의 토대를 마련했다는 평가를 받고 있습니다.

 

생성형 AI에서의 할루시네이션 현상은 AI가 실제로 존재하지 않는 정보를 생성하거나 잘못된 정보를 제공하는 현상입니다.

이를 해결해 나가야 하는 숙제가 있고, AI가 보다 정확하고 신뢰할 수 있는 정보를 제공함으로써 다양한 분야에서 더 큰 가치를 창출할 수 있게 될 것입니다.

 

아울러 블레츨리 선언을 한 이상 인공지능이 인간의 영역을 간섭하거나 도를 넘는 일이 있어서는 안되겠습니다.

 

반응형

댓글