뉴마인드·드러내야산다

[뉴마인드] 앞으로도 AI는 절대 인간의 감정을 가질 수 없다 I 챗GPT의 거짓말, 트렌드연구소

Buddhastudy 2023. 11. 21. 19:53

 

 

인공지능이 지금처럼 계속해서 발달하면

인간처럼 감정을 가질 수 있을까요?

 

많은 사람들이 미래에 인공지능이 감정을 갖게 되어

인간을 넘어서는 건 아닌지 두려워하는 것 같습니다.

 

실제로 세계에 많은 회사들이

인공지능에게 감정을 학습시키는 시도를 해왔고

최근 일부 인공지능들도 감정 표현을 하는 것을 보고

많은 사람들이 놀라워했습니다.

 

이렇게 감정적인 문제를 인식하는 인공지능을

Emotion AI, 감정 인공지능이라고 부릅니다.

 

하지만 현재까지의 인공지능의 감정 표현은

인간이 인간의 감정이 표현되는 과정을

하나의 프로그램 단계로 만들어서 데이터로 입력했기 때문에 가능합니다.

즉 스스로 감정을 만들어 낸 것은 아닙니다.

 

그리고 현재의 인공지능 방식으로는

인간과 같은 감정을 갖는 것은 불가능합니다.

왜 그럴까요?

 

현재 인공지능은 머신러닝과 딥러닝으로

가장 큰 한계점은

사전에 데이터 학습이 되어야 한다는 점인데

예를 들어

사람들의 언어 처리나 얼굴 표정, 음성 변화, 행동, 태도 등을

데이터로 만들어서 수집하고 분석합니다.

 

사람들의 감정 변화에 따라 표정이나 음성, 높낮이, 몸의 행동이

어떻게 어떻게 변화하는지 관찰하고 기록해서 분류하는 것입니다.

이럴 때 사람들은 즐거워한다

저럴 때 사람들은 거부감을 갖는다는 식으로

데이터를 쌓다 보면

사라마의 감정의 어떤 패턴이 나오게 되고

이것을 인공지능이 학습하는 것입니다.

 

그러나 여기서 한계점이 나옵니다.

감정은 개인과 상황에 따라 천차만별이기 때문에

인공지능에게 학습시키는 인간의 감정은

수많은 패턴을 분석한 데이터로 만든

단순하고 객관적인 감정만 표현하거나 해석이 가능한 것입니다.

 

 

그리고 텍스트 데이터,

즉 문자 데이터는 감정을 담는 한계가 있습니다.

아마 사람들과 문자만 주고받으면

감정 전달이 잘 안될 때가 있다는 것을 느껴봤다면

금방 이해할 수 있을 겁니다.

예를 들어

아이스크림 먹고 싶어라는 문장은 어떻게 표현하느냐에 따라

의미가 달라집니다.

부드러운 말투로 이야기하면

아이스크림 먹고 싶어?”

아이스크림이 먹고 싶은지 물어보는 의미이지만

딱딱하고 엄한 말투로 물어보면

아이스크림 먹고 싶어?”

상대방을 혼내는 듯한 의미입니다.

 

이처럼 텍스트 기반 데이터로는 감정 뉘앙스 학습이 불가능합니다.

그래서 인공지능에게 감정을 학습시키기 위해선

영상 이미지와 음성 인식 데이터를 처리하는 기술을 추가하는 것이 필수적입니다.

사람들은 표정, 몸짓, 목소리 등으로 감정 표현을 하기 때문입니다.

 

 

그런데 여기서 또 한계점이 나타납니다.

인간의 표정, 몸짓, 목소리 등으로는 감정을 읽을 수가 없기 때문입니다.

우리는 슬퍼도 무표정을 할 수 있고

재미를 느끼면서도 폭력적인 몸짓을 할 수 있고

화가 나도 차분한 목소리를 낼 수 있습니다.

즉 그 어떤 표정, 몸짓, 목소리도

어느 특정 감정만을 정확히 표현할 수 없습니다.

 

 

사실 이 밖에도 인간의 감정을 알 수 있는 명확한 기준이 없습니다.

신체의 상태로도 알 수 없습니다.

예를 들어

이성적으로 끌리는 사람을 만났을 때 심장이 두근거리는 것과

롤러코스터를 타기 전에 흥분이 되어 심장이 두근거리는 것

갑자기 너무 놀라 심장이 두근거리는 것

모두 다른 감정이지만

신체의 상태는 비슷합니다.

 

 

그렇다면 뇌를 분석하는 것은 어떨까요?

뇌에서도 감정을 알 수가 없습니다.

뇌의 어느 특정 부위가 감정만을 담당하지 않기 때문입니다.

 

감정은 뉴런들의 점화를 통해 발생하는데

오로지 감정에만 관여하는 뉴런은 없습니다.

 

따라서 만약 인공지능이

인간의 뇌를 분석한다고 해도

감정을 읽는 것이 불가능합니다.

 

 

어떤 사람들은 감정 인공지능이

인간의 감정을 이해하고

위로와 격려를 할 수 있을 것이라는 기대를 갖고 있지만

오히려 반대로 인공지능이 인간의 감정에 대해

오판하거나 잘못 해석하면서

예기치 못한 사고나 상황을 만들 위험성이 있다는 것을 유념해야 합니다.

 

2014년에는 세계 최초로 소프트뱅크에서

감성인식형 인공지능 로봇 페퍼를 출시했었습니다.

페퍼에는 인간의 감정과 행동을 인식하는 센서와 프로그램이 탑재되어 있었습니다.

마이크와 카메라 센서, 터치센서, 음파 센서 등이 들어가 있어

사람의 표정을 인식하고 점수화해서

사람의 감정을 학습할 수 있다고 해서 화제가 되었습니다.

 

하지만 실전에서의 기대 이하의 성능과 잦은 오작동으로 인해

6년 만에 생산이 중단되었습니다.

 

 

인공지능의 한계는

감정을 배울 수 없는 것에만 있는 것이 아닙니다.

인공지능은 컴퓨터 프로그래밍 언어입니다.

전류가 통하고 안 통하는 것을 01로 표시하고

이를 기준으로 데이터를 저장합니다.

예를 들어 01101

자연어 알파벳 A라고 하자는 식으로

기계어를 자연어로 변환시켜준 게 프로그래밍 언어입니다.

 

그런데 이 부분 때문에 기계어의 태생적 약점이 존재합니다.

기계어를 자연어로 변환해서 프로그래밍했는데

자연어 프로그램으로 인간의 데이터를 다시 변환하다 보니

기계어와 인간의 자연어 처리 사이엔

맥락 연결이 안 된다는 틈이 생기는 것입니다.

예를 들어

어떤 영어 문장을 한국어로 바꾸고

그 한국어 문장을 중국어로 바꿨는데

처음에 영어 문장과는 잘 통하지 않는 경우가 생기는 것입니다.

 

 

또 다른 큰 문제 중 하나는 속도의 문제입니다.

예를 들어

지능은 문법에 맞게 언어를 학습하는데

사람들은 사실 거의 문법에 맞게 대화하지 않는다는 것입니다

 

그래서 챗GGPT는 인터넷에서

언어 패턴을 수집해서 2년마다 학습을 합니다.

그런데 날마다 새로운 신조어가 생기는 사람들의 언어들은

실시간으로 변화합니다.

인공지능이 따라갈 수 없는 한계가 있을 수밖에 없습니다.

 

 

트렌드 연구소의 책 <GPT의 거짓말>에서는

인공지능이 어떻게 학습하고, 어떻게 일하는지

그 작동 원리를 쉽게 그리고 자세히 설명해 줍니다.

그리고 어떻게 챗GPT가 거짓말을 하는지 보여주며

GPT를 비롯한 인공지능의 한계를 다룹니다.

 

그렇다고 인공지능이 전혀 위험하지 않다는 말은 아닙니다.

사용자에 따라서 잘못 사용될 소지는 있기 때문입니다.

 

인공지능의 위험성은

결국 누가 어떤 의도로 사용하는가에 따라 달라질 것으로 보입니다.

 

현재 인공지능으로 인간처럼 감정을 가질 수 없습니다.

인공지능은 기본적으로 인간의 지능을 모방하면서 만들어졌는데

인간도 아직 인간의 감정을 잘 모르기 때문입니다.