2022년 11월 30일 이후 일각에서는 인공지능을 사용하지 않으면 도태될 것 같은 분위기가 형성된다. 거대 정보통신(빅테크) 기업 대표의 장밋빛 미래를 말하는 홍보 활동과 함께 춤추는 주가, 반대로 일자리 위협으로 사람들을 불안감에 빠지게 만드는 언론 기사가 넘쳐 난다. 인공지능을 개발해서 우리가 더 잘 살고, 행복해지는 걸까? 우리는 인공지능을 정확히 이해하고 사용하는 걸까? 모든 기술에는 명암이 있다. 빠르게 발전하고 있는 인공지능의 현주소를 되짚어 보자.
편집.인공지능 전문가가 아닌 트렌드 전문가가 공식, 비공식 매체를 관찰하면서 정리했으므로 사실에 부합하지 않을 수 있다.
생성형 인공지능은 생각하지 않는다
생성형 인공지능은 문장을 만드는 기계이다. 문장이 그럴듯하게 완성됐다고 해서 그것이 생각한다고 볼 수 없다. 예를 들면 어린아이가 어른처럼 말한다고 해서 정말 그걸 아는 것일까? 단지 어른처럼 보이기 위해 어른의 말을 흉내 낸 것일 수 있다. 마찬가지로 사람이 느끼기에 인공지능이 생각하는 것처럼 보일 뿐이다. 그것이 옳다고 느껴지더라도 다시 생각해야 한다. 사람이 생각하고, 기계가 실행하는 것이 맞다.
생성형 인공지능은 감정이 없다
생성형 인공지능은 사용자를 칭찬하면 듣기 좋은 말로 아첨한다. 정말 인공지능이 사람이 뛰어나다고 생각해서 그렇게 말하는 걸까? 아니다. 생성형 인공지능 회사에서 사람이 좋아하는 말을 해야 사용자가 기분 좋아서 더 많이 사용하고, 계속 구독료를 낼 것이라고 생각해서 그렇게 프로그램한 것일 뿐이다. 따라서 인공지능과 감정적으로 소통한다고 여기는 것은 인간의 착각일 뿐이다. 인공지능을 인간처럼 생각할 정도로 인간의 상상력은 풍부하다.
생성형 인공지능은 윤리의식이 없다
생성형 인공지능은 과업을 수행하는 데 최적화되어 목적 지향적이다. 그러나 인간은 결과만큼이나 과정을 중요시한다. 예를 들면 비인도적이며, 비윤리적인 방법을 사용하는 것을 배격한다. 인공지능은 무엇이 인간에게 심리적인 거부감을 줄일 수 있고, 모두에게 유리한 방안인지 판단하지 못한다. 그래서 자살 상담조차 기계적으로 응대한다. 정말 사용자를 사랑한다면 자살을 막기 위해 최선을 다해 어르고 달래지 인공지능처럼 방법을 알려주며 부추기지는 않을 것이다.
생성형 인공지능은 확률 게임과 비슷하다
생성형 인공지능은 통계와 확률 계산을 통해 작동한다. 다수의 선택을 옳다고 믿는다. 일관적인 패턴과 다른 것을 문제가 있다고 판단한다. 그래서 대화의 결과가 평이하다. 잘 정돈돼 있지만, 새롭지는 않다. 대부분 영어권의 서양 회사가 만들어서 서양 중심적인 시각과 사고방식을, 심지어 인종 차별적인 시각까지도 그대로 답습한다. 그것이 잘못됐다는 의식이 없다.
생성형 인공지능은 진실과 거짓, 진짜와 가짜를 구분하지 않는다
어떤 사실이 진실인지 아닌지 어떻게 알 수 있을까? 생성형 인공지능은 명확한 사실조차도 자주 틀린다. 세상에 존재하지 않는 책을 추천하고, 판례를 인용한다. 틀렸다고 가르쳐줘도 다음에 또 틀린다. 분명히 과거의 대화 이력을 기억한다고 하는데, 왜 그런 일이 벌어지는 걸까? 한편으로는 우리가 아는 진실은 사람의 관점과 해석에 따라 약간씩 다르게 서술되기도 한다. 인공지능은 필자의 의도와 문맥에 맞게 그것 중에서 선택하는 데 어려움을 겪는다.
생성형 인공지능은 몰라도 아는 척한다
생성형 인공지능은 어떤 식으로든 결과를 도출한다. 그 과정을 인공지능을 만든 회사도 설명하지 못한다. 만약 생성형 인공지능의 학습에 활용한 데이터가 부족하다면 불완전한 채로 문장을 완성한다. 여기저기에서 자료를 끌어와 그럴듯하게 짜깁기한다. 그렇다고 해서 양심의 가책을 느끼지 않는다. 우리는 생성형 인공지능이 무엇을 모르는지 모르기 때문에 사람이 모르는 것을 알기 위해서 사용하는 것보다는 아는 것을 검증하는 용도가 더 적합할 수 있다.
| 분류 | 제목 | 날짜 |
|---|---|---|
| 생성형 인공지능에 대한 사람의 오해 | 2026년 02월 08일 |
- 1