[전자신문] 인간처럼 생각할 줄 아는 AI는 언제 나올까
최고관리자
2022-07-27 08:36
8,761
-
21154회 연결
본문
전문가들 "당대엔 불가능...현재는 특정 분야 패턴 학습해 인간 판단에 도움 주는 수준에 그쳐"
인공지능(AI)이 사람처럼 생각할 수 있을까?
이러한 의문에 대해 AI 전문가들은 아직 어렵다는 반응이다. 지각과 감정에 대한 정의도 제대로 내리지 못할 정도로 아직 관련 기술 기반도 마련되지 못했다는 설명이다.
구글의 엔지니어 블레이크 레모인처럼 일부에선 이미 AI가 지각 능력을 가지고 스스로 생각을 한다고 주장하는 사례도 있다.
레모인은 주장의 근거로 종교에 대해 이야기하던 중 죽음에 대해 인지하고 두려움을 느낀다는 내용이 담긴 람다와 나눈 대화 내역을 무단으로 공개했다. 이로 인해 그는 기밀유지 의무 위반으로 구글에서 해고됐다.
전문가들은 그의 주장에 대해 사람이 작성한 대화와 글을 기반으로 수많은 학습을 통해 주입된 지식기반 답변일 뿐 실제 AI가 생각한 것은 아니라고 지적했다.
■ 생각에 대한 정의도 불분명, 검증불가능
국내 AI 전문가들은 생각하는 AI를 구현하기 위해선 ‘생각과 지각이 무엇이냐’는 철학적인 질문을 과학적인 수준으로 끌어오는 단계부터 시작해야 한다고 설명했다.
현재는 아직 사람이 생각하고 감정을 느끼는 메커니즘이 명확하게 정의되지 않았기 때문에 구현할 방법이 없다는 것이다. 만약 구현했다 하더라도 검증할 방법도 존재하지 않는다.
AI를 검증하는 방법으로 유명한 튜링테스트 역시 사람과 대화가 가능한 수준인지 파악할 수 있을 뿐 실제 사고하는지 확인하는 것은 불가능하다.
서울대학교 AI연구원 장병탁 원장은 “AI가 생각한다는 범위 측면에서는 논의할 만한 부분이 있겠지만 아직은 기계가 사람처럼 생각한다고 보기엔 어렵다고 본다”며 “아직 SF영화나 소설에서 보던 AI를 기대하는 것은 무리가 있다고 생각한다”고 말했다.
이어서 “또한 레모인이 주장을 입증하기 위해 무단으로 제시한 내부 연구 자료는 고객사나 대중에 과도한 기대를 품게 만들거나 구글의 AI 수준을 경쟁사에서 파악할 수 있는 단서가 될 수 있다”며 “구글의 주장처럼 기밀유지 의무 위반이 해고 사유에 많은 영향을 줬을 가능성이 큰 것으로 보인다”고 설명했다.
전 카카오 AI랩 리더를 역임한 업스테이지의 배재경 리더는 “현재 AI는 지각을 갖출 수 없다는 기조가 컨센서스”라며 “언어모델을 돌리면 그럴듯한 이야기를 답해 의식이 있는 것처럼 느껴질 수 있지만 현재 AI는 대화 패턴을 분석해 답변을 제공하는 것에 그친다”고 설명했다.
이어서 “현재 AI는 사고하고 추론하는 건 아니어서 지각을 갖췄다고 할 수 없다”며 “이걸 믿는다면 기계학습에 대한 지식을 충분히 갖췄다고 하기엔 어렵다”고 봤다.
ECCV, CVPR, WWW 등 주요 AI학회에 논문을 게재해온 박성래 리더는 “현재 AI 기술 수준은 기존의 패턴을 AI내부에 기록을 해 놓고 유사 상황에서 드러낼 수 있도록 하는 정교한 패턴 매칭 단계”라며 “지각을 갖추기 위해서는 AI가 스스로 기록하는 과정을 선택하고 스스로 진화(발달)할 수 있어야 하는데, 그런 기술은 개발되지 않았다”고 지적했다.
비전 AI 전문가인 이준엽 리더는 “지각을 갖춘다는 것의 정의가 중요하다”며 “단순히 학습과정에서 보지 못했던 문제에 대한 그럴듯한 해답을 내놓는 것을 지각이라고 정의한다면, 현재 AI 수준은 상당히 근접했지만 직접 생각하는 단계는 아직 부족하다”고 말했다.
...............
인공지능(AI)이 사람처럼 생각할 수 있을까?
이러한 의문에 대해 AI 전문가들은 아직 어렵다는 반응이다. 지각과 감정에 대한 정의도 제대로 내리지 못할 정도로 아직 관련 기술 기반도 마련되지 못했다는 설명이다.
구글의 엔지니어 블레이크 레모인처럼 일부에선 이미 AI가 지각 능력을 가지고 스스로 생각을 한다고 주장하는 사례도 있다.
레모인은 주장의 근거로 종교에 대해 이야기하던 중 죽음에 대해 인지하고 두려움을 느낀다는 내용이 담긴 람다와 나눈 대화 내역을 무단으로 공개했다. 이로 인해 그는 기밀유지 의무 위반으로 구글에서 해고됐다.
전문가들은 그의 주장에 대해 사람이 작성한 대화와 글을 기반으로 수많은 학습을 통해 주입된 지식기반 답변일 뿐 실제 AI가 생각한 것은 아니라고 지적했다.
■ 생각에 대한 정의도 불분명, 검증불가능
국내 AI 전문가들은 생각하는 AI를 구현하기 위해선 ‘생각과 지각이 무엇이냐’는 철학적인 질문을 과학적인 수준으로 끌어오는 단계부터 시작해야 한다고 설명했다.
현재는 아직 사람이 생각하고 감정을 느끼는 메커니즘이 명확하게 정의되지 않았기 때문에 구현할 방법이 없다는 것이다. 만약 구현했다 하더라도 검증할 방법도 존재하지 않는다.
AI를 검증하는 방법으로 유명한 튜링테스트 역시 사람과 대화가 가능한 수준인지 파악할 수 있을 뿐 실제 사고하는지 확인하는 것은 불가능하다.
서울대학교 AI연구원 장병탁 원장은 “AI가 생각한다는 범위 측면에서는 논의할 만한 부분이 있겠지만 아직은 기계가 사람처럼 생각한다고 보기엔 어렵다고 본다”며 “아직 SF영화나 소설에서 보던 AI를 기대하는 것은 무리가 있다고 생각한다”고 말했다.
이어서 “또한 레모인이 주장을 입증하기 위해 무단으로 제시한 내부 연구 자료는 고객사나 대중에 과도한 기대를 품게 만들거나 구글의 AI 수준을 경쟁사에서 파악할 수 있는 단서가 될 수 있다”며 “구글의 주장처럼 기밀유지 의무 위반이 해고 사유에 많은 영향을 줬을 가능성이 큰 것으로 보인다”고 설명했다.
전 카카오 AI랩 리더를 역임한 업스테이지의 배재경 리더는 “현재 AI는 지각을 갖출 수 없다는 기조가 컨센서스”라며 “언어모델을 돌리면 그럴듯한 이야기를 답해 의식이 있는 것처럼 느껴질 수 있지만 현재 AI는 대화 패턴을 분석해 답변을 제공하는 것에 그친다”고 설명했다.
이어서 “현재 AI는 사고하고 추론하는 건 아니어서 지각을 갖췄다고 할 수 없다”며 “이걸 믿는다면 기계학습에 대한 지식을 충분히 갖췄다고 하기엔 어렵다”고 봤다.
ECCV, CVPR, WWW 등 주요 AI학회에 논문을 게재해온 박성래 리더는 “현재 AI 기술 수준은 기존의 패턴을 AI내부에 기록을 해 놓고 유사 상황에서 드러낼 수 있도록 하는 정교한 패턴 매칭 단계”라며 “지각을 갖추기 위해서는 AI가 스스로 기록하는 과정을 선택하고 스스로 진화(발달)할 수 있어야 하는데, 그런 기술은 개발되지 않았다”고 지적했다.
비전 AI 전문가인 이준엽 리더는 “지각을 갖춘다는 것의 정의가 중요하다”며 “단순히 학습과정에서 보지 못했던 문제에 대한 그럴듯한 해답을 내놓는 것을 지각이라고 정의한다면, 현재 AI 수준은 상당히 근접했지만 직접 생각하는 단계는 아직 부족하다”고 말했다.
...............