Blog Archive

2024-03-22

『박태웅의 AI 강의』를 읽어보았습니다.

『눈 떠보니 선진국』을 읽고 나서 같은 작가가 쓴 『박태웅의 AI 강의』도 꼭 읽어보고 싶었습니다. 생성형 AI가 모든 것을 집어삼키고 있습니다. 이럴 줄 알았으면, 대학원에서 신경망 배울 때 좀 더 관심을 가지고 팠어야 하는 생각이 듭니다. 그 때는 소위 인공지능의 겨울이었던 시기여서, 인공지능이 이렇게 느닷없이 성능이 좋아지고, 능력을 갖추게 되리라고 예상을 하는 사람이 별로 없었습니다.


박태웅의 AI 강의. 박태웅 지음. 한빛비즈.
박태웅의 AI 강의



서점에 가보아도, 챗GPT에 대한 책들이 넘쳐납니다. 많은 책들이 이것을 어떻게 잘 활용하여, 나의 업무 생산성을 극적으로 높일 것인가에 초점이 맞추어져 있습니다. 좀 더 부정적으로 표현하면, 그럴듯한 콘텐츠를 빠르게 만들어서 인터넷 세상을 오염시키는 방법에 대한 글과 영상들은 이미 넘쳐납니다. 

그런 와중에 생성형 인공지능(Generative AI), 더 나아가 인공일반지능(AGI)이 우리 사회에 미치는 거시적인 영향과 파급 효과에 대해 진지하게 성찰해보고, 이면에 숨어있는 위험을 인류는 어떻게 대처해야 하는지에 대해 고민해보는 책은 생각보다 많지 않은 것 같습니다. 그런 면에서 『박태웅의 AI 강의』는 이해하기 쉽게 쓰여져 있지만, 진지하게 생각할 거리를 던져줍니다.

전체 다섯 개의 장(1강~5강)으로 구성되어 있는데, 가장 핵심적인 것은 저는 3강, 열려버린 판도라의 상자였다고 느꼈습니다. 오픈AI의 샘 알트먼은 "인공일반지능이 만약에 고장나면 무엇인가 다른 조치가 필요할 수도 있습니다. 이 때문에 특정 회사가 이런 AI를 소유해서는 안 됩니다."라고 말했지만, 정작 요즘 오픈AI의 행보는 갈수록 "클로즈드" AI로 향하고 있습니다. 왜 그런 결과가 나오는지 설명할 수 없는 요즘의 AI는 원하지 않는 결과(편향되었거나, 차별적이거나, 허위이거나, 개인 정보를 침해하거나 등)가 나왔을 때, 그것을 고치는 방법도 근본적으로는 알 수가 없습니다.

극단적으로 영화 터미네이터에서 스카이넷이 인간을 공격하게 되는 상황까지는 상상하지 않더라도, 현재의 생성형 인공지능으로 인해 판도라의 상자가 이미 열렸고, 이것에 대해 전사회적으로 대응책을 마련하지 않으면, 어떤 미래가 올 지 알 수가 없습니다. 

소셜 미디어(인스타그램)를 사용하는 정도와 미국 소녀들의 자살률 증가가 높은 상관 관계가 있다는 사실을 메타의 과학자들은 알고 있었다고 합니다. 페이스북의 알고리즘에 의해 우리는 필터 버블(filter bubble)과 에코 체임버(echo chamber)에 빠져 있을 뿐 아니라, 전세계적으로 정치적인 극단주의가 더욱 심화되고 있습니다. 이렇게 거대 기업에 의해 움직이는 소셜 미디어의 부작용에도 우리는 효과적으로 대응하지 못했습니다. 그런데, 생성형 인공지능의 부작용에 대해 지금부터 고민하고 대처하지 않으면, 어떻게 될까요?

2020년 구글에서 인공지능 윤리를 연구하다 해고당한 팀닛 게브루(Timnit Gebru)가 쓴 논문, <확률적 앵무새의 위험에 대하여: 언어 모델은 너무 커져도 좋을까?>에서 지적한 네 가지 위험성이 있습니다. 심리학자 개리 마커스도 비슷한 위험성을 경고하고 있습니다. 

첫째, 거대 언어 모델을 운영하기 위해 천문학적인 재정적 비용과, 매우 많은 양의 전기, 탄소, 물이 소비됩니다. 그리고 지구상에서 가난하고 소외된 지역에 가장 크게 타격을 줍니다.

둘째, 이 언어 모델 안에 어떤 편견과 왜곡이 들어있는지 알 수가 없습니다. 이 모델에는 인터넷에서 영향력이 작은 국가와 민족의 내용은 누락되고, 부유한 국가의 관행은 더 많이 반영되어 모델이 생성한 답이 동질화될 수 있습니다. 

셋째, 연구의 기회 비용입니다. 그럴 듯한 답을 내놓는 거대 언어 모델에 대부분의 연구비가 집중되어, 더 필수적이고 중요한 과제에 자원과 예산이 배분되지 않고 있다는 것입니다. 

네 번째는 잘 알려진 환각(hallucination)의 문제입니다. 인공지능이 생성하는 허위 정보, 가짜 뉴스, 딥 페이크를 구분하고, 방지하기 위한 장치가 뚜렷이 보이지 않고 있습니다. 

다섯 번째, 책에서는 오리지널의 실종을 경고하고 있습니다. 텍스트를 기반으로 그럴듯하게 생성된 이미지들이 인터넷 세상을 도배하고, 인공지능이 생성한 그럴듯한 글들이 꽉차게 되면, 이제 인공지능은 더 이상 학습할 오리지널 데이터가 부족해지게 됩니다. 그렇게 했을 때, 인공지능의 성능은 점점 더 나빠진다고 합니다. 인터넷 세상은 새로운 아이디어와 콘텐츠가 넘쳐나는 열린 세상이 아니라, 유사한 이미지와 자가 복사된 글들로 채워지는 닫힌 세계, 근친 교배로 다양성이 상실되는 세계가 될지도 모릅니다. 

여섯 번째, 차별의 재생산입니다. 논란이 되어 폐기되었던 아마존의 인공지능 채용 시스템, 골드만 삭스의 인공지능 신용평가 시스템, 컴퓨터 비전의 발전에 혁혁한 기여를 하고 있는 이미지넷 등이 예로 언급되었습니다. 이런 시스템에 내재한 성차별, 인종차별, 기타 정치적으로 올바르지 않은 차별적 패턴을 인공지능이 학습하여 차별은 확산되고 재생산될 가능성이 높습니다. 

유럽 연합은 2019년 「신뢰할 수 있는 인공지능 가이드라인」을 만들었고, 미국은 「알고리듬 책무법안 2022」, 우리 나라는 「AI(인공지능)산업 육성 및 신뢰 기반 조성에 관한 법률」 제정을 추진하고 있다고 합니다. 신뢰할 수 있고, 위험하지 않은 인공지능을 위해 여러 분야의 전문가들이 지혜를 모아서 사회적인 합의와 대책을 잘 만들어갔으면 좋겠습니다.



댓글 없음:

댓글 쓰기