뉴마인드·드러내야산다

[뉴마인드] AI가 인간의 지능을 넘어설 수 있나? I 뇌과학자가 보는 미래 인공지능의 위협

Buddhastudy 2023. 8. 8. 19:34

 

 

 

인간이 만든 지능 인공지능 AI라는 단어가 굉장히 흔해진 요즘이지만

생각보다 많은 사람들이

너무 발달한 AI에 대해서는 부정적인 거 같습니다.

 

인간을 능가하는 AI가 나타날까 봐 두려워하는 것 같은데

여러분은 어떠신가요?

 

많은 SF영화들이

AI가 발달한 미래를 암울하게 묘사하고

AI가 인류의 생존을 위협하는 문제들을 다룹니다.

 

뇌과학자들은 이런 SF영화 같은 시나리오들에 대해 어떻게 생각하고 있을까요?

정말 미래에는 AI가 인류를 위협할 수 있을까요?

 

AI를 두려워하는 미래 시나리오는 대부분 두 가지 걱정을 기반으로 합니다.

-첫 번째는 AI가 인간의 지능을 넘어서는 지능 폭발입니다.

인간이 만든 AI가 인간의 지능을 앞서게 되고

AI가 모든 분야에서 인간보다 월등한 능력을 갖게 되고

인간은 AI가 하는 일을 대체할 수 없게 되고

그때가 되면 AI는 인간이 더 이상 필요 없게 되거나 인간이 방해가 되기 때문에

인간을 멸종시키려 한다는 시나리오입니다.

 

-두 번째는 AI가 인간의 지시를 거부하는 목표 불일치입니다.

미래의 어느 순간 그 아이가 인간의 안녕을 최우선 목표로 하지 않고

다른 목표를 설정하게 되는데

인간이 그것을 막을 수 없게 되는 것이죠.

 

대부분의 시나리오들은 위 두 가지를 기반으로 하는데

이것은 결국 인간이 AI에 대한 통제력을 잃는다는 가정에서 시작합니다.

 

 

뇌과학자이자 컴퓨터 공학자인 제프 호킨스는

이런 시나리오들은 지능에 대해 잘 모르기 때문에 나왔다고 말합니다.

그리고 AI는 인간과 같은 진정한 지능을 가질 수 없다고 합니다.

 

먼저 우리는 언제 지능이 있다고 말할 수 있을까요?

강아지는 분명 지능이 있다고들 합니다.

곤충들도 지능이 있다고 하죠.

 

그런데 예를 들어 가장 대중화된 인공지능 중의 하나인 AI 스피커는

지능이 있다고 생각이 드시나요?

별로 그렇게 생각이 되지 않습니다.

 

뇌 과학에서는지능이 있다라고 하는 건

기본적으로 끊임없는 학습 능력이 있어야함을 의미합니다.

 

우리가 사는 세계는 끊임없이 편합니다.

따라서 지능이 있다는 것은

환경에 맞게 스스로 뇌신경세포를 배선시키면서

끊임없이 학습을 해나가는 능력이 있음을 말합니다.

 

그리고 지능이 있으면 움직임을 통한 학습능력이 있습니다.

우리의 뇌는 매 순간 움직일 때마다

다음에 일어날 일을 예측하고 수정하면서 세계를 학습합니다.

 

또한 지능은 유연하고 창의적입니다.

어떤 상황에서도 과거의 경험을 새로운 방식으로 결합해서

이전에 한 번도 경험하지 않은 일에도 대처할 수 있게 합니다.

아직까지 이런 능력들을 가진 AI는 단 하나도 없습니다.

 

그럼 미래에는 어떨까요?

앞서 말한 두 가지 시나리오는 과연 가능할까요?

 

1) 지능 폭발 문제

뇌 과학자들은 AI가 지능이 있다고 하는 것들을 모두 해내고

인간의 지능을 앞서는 AI의 지능 폭발은 일어날 수 없다고 합니다.

 

끊임없이 변화하는 세계에서

앞서 말한 지능이 가져야 할 조건들을 모두 갖출 수가 없기 때문입니다.

 

그래서 현재까지 성공한 AI는 모두 정적인 분야뿐입니다.

예를 들어

유명한 바둑 AI 알파고가 있습니다.

바둑이라는 세계는 시간이 지나도 규칙이 변하지 않기 때문입니다.

시간이 지나도 변함이 없고

연속적인 학습이 필요 없는 분야인 것이죠.

 

이런 일부 분야에서는 인간의 지능을 앞설 수는 있습니다.

그런데 대다수 분야에서는 세계와 상호작용의 어려움 때문에 불가능합니다.

우리가 세계에 대해 아는 지식은 계속해서 변화하기 때문입니다.

예를 들어

어제 어떤 새로운 지식이 생겼다고 해도

이것을 오늘 당장 전 세계 모든 사람들이 알 수 없듯이

AI도 항상 모든 것을 알 수 없다는 한계를 가집니다.

AI도 새로운 지식을 반드시 학습을 해야만 하는데

우리는 끊임없이 변화하는 세상에서 살고 있죠.

 

최근에 오픈 AI에서 개발한 대화 전문 인공지능 챗봇 CHatGPT가 있습니다.

거의 모든 것을 다 대답해주기 때문에 많은 사람들이 놀라워하고 있습니다.

그러나 이 CHatGPT도 현재 2021년 이후에 지식은 제한되어 있는 한계가 있습니다.

스스로 끊임없이 학습하는 우리의 뇌 같은 지능이 없기 때문입니다.

 

이처럼 계속해서 변화하는 우리가 사는 세계에서

갑자기 인간을 뛰어넘는 지능 폭발은 일어나지 못합니다.

 

 

2) 목표 불일치 문제

AI가 인간에게 해를 끼치는 목표를 추구하는데

우리가 저지할 수 없다는 목표 불일치의 시나리오도 일어나기 힘듭니다.

 

예를 들어

몇몇 SF 영화 나온 시나리오입니다.

지구의 환경을 보존하라는 지시를 AI에게 내렸는데

AI가 판단하기 인간이 가장 지구를 파괴하는 주범이라고 판단해서

인간을 멸종시키려고 하는 내용입니다.

 

뇌 과학자들은 이런 시나리오는 절대 일어날 수 없는 가정에 기반을 두고 있다고 말합니다.

AI가 첫 번째 지시만 수행하고, 그 이후의 지시는 무시한다는 가정인데

인간이 이런 AI를 설계할 리가 없다는 것이죠.

이건 마치 자율주행차 AI를 만드는데

첫 목적지를 향해 달리다가 정지하는 기능을 넣지 않는다거나

중간에 목적지가 바뀌었을 때 목적지를 수정하지 못하는 차를 설계하는 것과 같습니다.

 

애초에 그런 차를 설계할 리가 없듯이

그런 AI를 애초에 설계할 리는 없다는 말입니다.

또한 설령 AI가 명령을 잘못 수행하게 되더라도

그것을 멈추려는 인간의 모든 노력을 막는 것이

AI에게는 힘들 뿐만 아니라 인간을 저지하기 위해서는

끊임없이 에너지를 스스로 조달해서

계속해서 잘못된 명령을 수행해 나가야 되는데

이것도 현실적으로는 불가능하다는 말입니다.

 

그렇게 하려면 AI가 전 세계의 통신과 생산 운송 대부분을 통제해야 하는데

그런 능력을 가질 수 없다는 것은 분명하다는 것이죠.

 

그리고 이런 시나리오가 불가능한 큰 이유 중의 하나는

일부 AI는 우리보다 더 똑똑해지고 빠르고 유능해진다고 해도

AI는 동기를 스스로 만들지 못하기 때문입니다.

 

인간이 AI에게 의도를 입력하지 않는 한

스스로 사람과 같은 욕구와 감정을 갖지 않을 것이기 때문에

인간에게 위협이 될 동기 자체가 없다는 것이죠.

 

다른 존재의 생명을 빼앗거나 지배하려는 동기는

생존과 번식, 에너지를 얻기 위한 진화의 산물입니다.

AI에게는 이렇게 진화의 과정에서 살아온 생물들처럼

생존을 위한 싸움을 하고

DNA 복제를 위한 번식을 목표로 하는

그런 동기가 전혀 없습니다.

 

 

결론적으로

AI의 발달로 인해 인류가 멸종할 위험은 크지 않고

오히려 AI로 인한 긍정적 효과가 더 많을 것으로 기대된다는 말입니다.

 

물론 악한 사람들에 의해 악용될 소지도 있습니다.

AI가 설계, 개발 및 규제되는 방식에 따라 달라질 수 있기 때문입니다.

 

AI의 잠재적인 위험과 이점을 적극적으로 연구하고 논의하고

AI의 개발이 윤리 및 안전 고려사항에 따라 이루어지도록 하는 것이 중요합니다.