Book/그 외

ㅡ 한세희, <요즘 어른을 위한 최소한의 인공지능 이야기> 中, 태학사

mediokrity 2024. 7. 26. 18:11

2024/7/26

 

 

 

챗GPT나 이후 구글에서 나온 제미니 같은 인공지능은 사람처럼 자연스럽게 언어를 처리하는 데 초점을 맞춘 초거대 언어모델large language model입니다. 초거대 언어모델은 인터넷과 책, 문서 등에 있는 엄청나게 많은 텍스트 데이터를 학습하고, 이를 바탕으로 그럴듯한 단어와 문장을 만들어 낼 수 있는 인공지능입니다. 한번 더 정리하면, 생성형 AI 기반이 초거대 언어모델인 것입니다. 생성형 AI는 인공지능의 한 분야이고요.(36p)

 

 

신라면은 있는데 왜 백제면, 고구려면은 없는지 이유를 알려주세요.

 

제미니는 이렇게 답하더군요.

 

신라가 한국의 문화와 정치에 큰 영향을 끼친 반면 백제와 고구려는 신라보다 덜 알려져 있고, 쌀을 주식으로 한 백제와 고구려와 달리 신라에서는 밀가루로 만든 면 요리가 발달했기 때문입니다.

(...)

인공지능 대답을 보면 문장이 전혀 어색하지 않고 내용도 매우 그럴듯합니다. 깔끔한 보고서를 써 놓은 듯합니다. 다만 내용이 전혀 사실과 맞지 않을 뿐이죠.

(...)

이런 현상은 초거대 언어모델이 기본적으로 '다음에 나올 적절한 단어를 확률적으로 예측'하는 역할을 하는 것이지, 정확한 정보를 찾아 제공하기 위한 것이 아니라서 나타납니다. 초거대 언어모델은 블랙박스 안에서 무슨 이유인가로 어떤 단어나 문장을 생성하는 것이 더 적합한 결과일 확률이 높다고 계산되면 그를 따르는 것뿐입니다. 여기서 내용이 사실인지 아닌지, 말이 되는지 안 되는지 등은 부차적인 문제입니다.(58-59p)

 

 

이처럼 생성형 AI는 사실인지 아닌지 판단하기 애매한 것도 자신 있게 제시합니다. 사용자는 자신도 모르게 이를 사실로 받아들일 가능성이 큽니다. 더구나 언어모델은 매우 그럴듯한 문장을 만들어 내기 때문에 이런 경향은 더 커집니다. 생성형 AI는 말이나 그림을 만들어 내는 일을 하는 것이지, 정확한 자료를 찾아 정보를 제공하는 역할을 하는 것이 아니란 점을 다시 강조하고 싶습니다.

(...)

거듭 말하지만, 생성형 AI는 기본적으로 '다음 말을 계속 이어 가는 기계'라는 점을 염두에 두고 결과물을 활용해야 합니다. 적절한 정보가 없는 경우에는 그냥 없는 말도 만들어 내기 때문이지요. 그러므로 인공지능 답변이라고 철석같이 믿을 것이 아니라 항상 비판적인 시각을 가질 필요가 있습니다.(60-62p)

 

 

음악, 미술, 디자인, 영상, 문학, 광고 등의 분야를 흔히 '크리에이티브'한 영역이라고 합니다. 규정이나 절차보다는 아이디어와 창의력이 중요하기 때문이지요. 창의력 하면, 고독한 천재 예술가나 과학자가 어느 순간 영감을 받아 놀라운 결과물을 쏟아 내는 장면을 머릿속에 그리곤 하는데, 창의력이 꼭 그렇게만 정의되는 것은 아닙니다.

창의력은 과거부터 쌓아 온 경험과 지식을 새로운 방식으로 연결해서 지금의 문제를 해결할 방법을 찾아 내는 능력이기도 합니다.

(...)

우리가 창의적인 일이라고 생각하던 업무 대부분은 과거의 경험과 지식을 바탕으로 재구성할 수 있고, 이제 인공지능이 그런 일을 할 수 있는 단계에 이르렀음을 인정해야 할 듯합니다. 일상적인 디자인이나 일러스트 작업, 실용적인 글쓰기나 번역 같은 일들은 인공지능 때문에 많이 줄어들 전망입니다.(98-99p)

 

 

이런 점을 짚는 이유는 혹시 인공지능 시대니 인공지능이 이제 다 알아서 하겠지 하고 생각할 분도 있을 것 같아서입니다. 공부할 필요도, 외국어를 익힐 필요도 없다고 생각할 수 있지만, 오히려 인공지능 시대이기 때문에 더 공부하고 더 깊이 생각하는 능력을 키워야 할 것입니다. 인공지능이 대신해 줄 수 있는 일이 늘어날수록 인공지능이 할 수 없는 일을 생각해 내고 해결할 사람이 그만큼 더 중요해질 테니까요. 그리고 누구나 인공지능을 활용할 수 있게 되면, 인공지능을 잘 이해하고 활용하는 사람과 그렇지 못한 사람 사이에 큰 격차가 벌어질 수 있습니다.(106-107p)

 

 

인공지능을 학습시키는 서버들은 데이터 센터라는 특수한 시설에 설치되어 있습니다. 서버는 네이버나 구글, 카카오 같은 기업이 인터넷 서비스를 하기 위해 사용하는 고성능 컴퓨터입니다. 데이터 센터는 서버를 모아 놓은 '서버 호텔'같은 곳이지요. 우리는 데이터 센터의 서버에 접속해 검색을 하거나 톡을 보내고, 영상을 봅니다.

데이터 센터는 전기를 많이 씁니다. 수많은 서버가 바쁘게 돌아갑니다. 서버가 작동하면 이때 나오는 열을 식히기 위해 또 에너지를 써야 합니다. 자연 전기가 많이 필요하죠. 전기를 만들어 낼수록 탄소 배출량이 늘어나고요. 데이터 센터에서 쓰는 전기는 세계 전력 소모량의 1퍼센트 정도라고 합니다.

(...)

아일랜드 한 나라가 1년 동안 쓰는 전력과 비슷한 수준이라고 합니다. 구ㅡ글이라는 한 기업이 한 국가만큼 전기를 쓰는 셈이지요.

구글이 생성형 AI에 요청한 것 하나를 처리하는 데 드는 비용은, 구글 검색 1건을 처리하는 비용의 10배에 이릅니다.(118-120p)

 

 

인공지능이 편향된 시각을 보이거나 다양성을 위협하는 결과물을 내놓자 인공지능 기업들이 이런 문제가 생기지 않게 하느라 많이 신경을 쓰고 있습니다. 그런데 이런 노력이 지나쳐 도리어 어색한 결과가 나오기도 합니다. 제미니가 그 예입니다.

(...)

제미니에 "1820년 독일 시골의 연인 이미지를 그려 줘"라고 넣었더니 흑인 남성과 아시아 여성이 다정하게 있는 모습을 만들어 냈습니다. 19세기 초 독일 시골에 흑인과 아시아인 커플이 있지는 않았겠죠.

(...)

인공지능이 제시하는 세상이 통념과 너무 다르면 사용자는 불편해합니다. 편향된 시각을 줄이는 것만큼 사람들이 보통 생각하는 세계의 모습을 보여 주는 것도 중요한데, 균형을 맞추기가 쉽지 않아 보입니다. '편향된 시각이 없는 상태'라고 여기는 것 역시 어떤 사람들(주로 인공지능을 개발하는 백인 엘리트들)의 생각이 반영된 상태일 수도 있습니다.

인공지능에서 편향된 시각을 완전히 제거하는 것이 가능할까요?(130-132p)

 

 

미국 경찰은 인공지능을 활용해서 범죄 발생 가능성이 큰 시기나 지역을 예측하고 순찰을 강화합니다. 순찰을 자주 나가니 사람이 많이 잡히고, 이런 기록 때문에 인공지능이 그 지역을 더 우범 지역으로 지목하는 악순환이 일어날 수도 있습니다. 인공지능은 최적화된 결론을 얻는 데 집중하는데, 이런 특성이 자칫 특정 집단에 대한 편향된 시각으로 이어질 수 있다는 것이지요.(145-146p)

 

 

그런데 자율 주행 차량이 사고를 냈다면 누구에게 책임을 물어야 할까요? 자동차 제조사, 자율 주행 인공지능 알고리즘을 만든 회사, 운전자나 차주 중 누구의 책임이 가장 클까요? 책임 소재를 묻는 것은 차량 탑승자와 피해자, 보험사에게 정말 중요한 문제입니다. 그래서 책임 소재가 명확해지지 않으면 자율 주행 차량은 현실화되지 못할 수 있습니다.

이렇게 보면, 사람을 사람으로 만드는 것은 다른 것이 아니라 '책임'을 질 수 있는 능력, 또는 기꺼이 책임을 지겠다는 자세일지도 모르겠습니다.(163p)

 

 

 

ㅡ 한세희, <요즘 어른을 위한 최소한의 인공지능 이야기> 中, 태학사