추천 게시물

chatGPT가 우려스러운 점 - 1:1로 진행될 대화의 정황, 그리고 답이 있는 사실이 아닌, 답이 없는 행위의 문제에 (사적형식의) 대화로 개입할 때

르쿤교수 기사를 읽고, 공식을 찾아보다가 아래 긴 글을 facebook에 쓰고, 오늘 블로그로 옮겨놓는다. 블로그에서는 관련 글을 찾아 링크를 붙여놓았다.

---
Hume의 연합설 기준으로 보면 인과론조차 믿음의 체제에 기반한 ‘환상’일 수 있는데 …. 인간이 AI와 어떤 관계를 맺을지 최근의 ‘정황’(Deleuze의 흄 해석 참조)이 자못 흥미롭다. 베르그송은 ‘왜 이렇게 연결은 안되고 저렇게 연결은 되는지’를 가지고 흄의 연합이론을 비판했고, 이에대한 들뢰즈의 변론 중에 나온 개념이 ‘정황’이다.

2007년 이후 십여 년 넘게 내 관심사이다. 어떤 정황 속에서 제도화된 믿음의 체계가 세워지고, 또 붕괴 되는가! 벤야민의 ‘기술복제-사진‘에 의해 생성된 변화(아우라의 붕괴, 제의효과에서 전시효과로)와 더불어 … 이와 유사한 인터넷-기술의 인접성과 유사성을 비교해 어떤 인과성, 정황을 설명하는 것 … 내 삶은 이런 '정세' 속에 서 있다.

내게 챗GPT에서 우려스러운 것은 거의(대부분) 1:1로 진행될 대화의 정황 때문이다. 플랫폼/기술의 비공개성보다 그 대화 자체의 비공개성! 앞 맥락을 살려 다음 이야기를 이어가는 ‘챗’은 그 정황 속에서 다음 이야기할 말을 찾고, 그게 환상이나 확증적 거짓말을 하게 만드는 것 같다. 그 거짓이 어떤 이, 그 챗팅에 참여한 사람에겐 진실(믿음)이었기에 끌려나온 말일 수도 있다. 기계지만 사람처럼 교양있게 대화를 이어가야 하니 … (이에 대한 논의가 튜링 테스트 - '중국어 방'에 대한 실험모델이다.)
그 유도된 환상 속에 하나 하나의 개인들이 들어섰을 때, 세상은 천국이거나 지옥일게다. 그 속에 있는 사람에게는 천국, 그 사람을 품고 있는 사회/공동체는 지옥. 유튜브 추천이 만드는 파편적 세상이 원자차원에서 열리는 건 아닐까! 그래서 어떻게 활용할지 먼저 집단적으로 생각하고 규칙을 만드는게 좋겠다. 왜냐하면 우린 본성상 현대적 의미의 '사회'적 존재가 아닌, 150명 정도가 모여살며 오랜동안 진화된 소규모 집단으로 이뤄진 자연적 존재였기 때문이다(던바의 수를 믿는다면). 모여살기 위해 우린 하나의 문화, 습관을 발명했다.

어떤 사람의(에 대한) 어떤 답이 모두의 답이 될 이유도 권리도 없다. 또 답이 맥락(질문, 문제) 속에 있는 경우도 많다. 어떤 답은 틀렸더라도(틀린 것처럼보여도) 모두 따라야하는 경우도 있다. 이런 것 중 나쁜 뉘앙스로 말하면 인습/습속이고, 좋게 말하면 사회적으로 예측된 행동패턴들이다. 어떤 개인(individual)이 ‘아첨꾼같은’ 봇과 함께 만든 세상이 ‘진짜’라는 믿음 갖게되고, 지속적 대화과정에서 그것이 ‘내면화'된다면. 이미 우린 인터넷에서 수 많은 확증편향이란 보이지않는 울타리를 만들어 따로 사는 사람들을 보고 걱정을 한다. 현재의 1:1 대화형 모델에서는 소집단을 넘어서 개인 차원까지 내려가 숨어버리고 사회적 ’문제‘로 드러나기 전엔 발견하기 어렵게 된다. 사람들이 자기 마음 속에 있던 지옥을 꺼내 사람이 아닌 봇에게 말하고 자신이 다시 받아먹으며 천국이 된 상황, ’미친‘ 세상 …. (feedback - 되먹임 이론)

발견의 불가능성은 individual(그리스어 atom의 라틴 번역어, 쪼갤 수 없는 것, 개인), atom(원자)이란 개념 속에 있는 것 같다. 관계 없을 땐 문제가 안되지만 관계를 맺는 순간 문제가 발생할 수 있다. 그리고 모든 관계는 '외부적'이다(관계의 외부성). 또 화학적 성질은 어떤 조건, 정황 속에서 잠존하다(subsist) 발현된다.

챗GBT가 변호사 시험에 합격하고, 코딩을 해 개발을 하고, 학생들 레포트를 대신 쓰고, 이런 저런 직업을 없애고 하는 노동의 종말이나 위기 등 두려움에 기댄 담론이 무섭지않다. (그간의 경험칙으로 보면 다소 ‘또야’하며 우습기까지 하다.) 이세돌과 알파고 이후에도 바둑 AI로 훈련해 이를 이기는 기사가 나오고, 바둑 기사들은 여전하고 색다른 기풍을 만들어냈다. 교육자가 교육 받아야하는 상황이 온다해도 겪어낼 수 있는 정도일 것이다.
걱정스러운 것은 유튜브를 즐기는 확증편향의 어르신에 대한 우려와 같다. 전문지식이 아닌 일상대화 속에 있는 많은 보이지않는 규칙들, 디아그람(diagram - 푸코) ….

(최근 철학자 김재인교수의 말을 빌어 생각하면 인간의 '내적필요'에 대해 챗GPT는 '외적요청'으로 받아 대답을 한다는 것 (둘 사이의 대화는 되먹임되어 자기강화를 만들어낸다.) ... 그 사이의 간극의 현존과 그 거리가 야기하는 효과들 ... 그 효과의 결과가 질문을 한 사람에겐 환상의 현존(actuality)으로 '읽힐 수 있다/읽힌다'는 것이고, 대화에서 만들어지는/형성되는 담론/언표의 물질성이 사회적으로 주조된 개인(주체)를 뒤흔들어 '분열적'으로 만들 수 있다는 것이다. 그 분열이 새로운 삶의 발명/창조가 아닌, '자기확증 - 내가 나폴레옹이다'라고 믿는 분열증으로 갈 수도 있다는 것 ... 이런 문제들!)
사회적 제도들, 대화의 규칙들은 사실보다는 믿음에 기초한다. 비트겐슈타인이 <논리철학논고>에서 <철학적 탐구>로, 또 자신의 수업에 들어온 튜링과 ‘잘못 설계된 다리 논쟁‘을 한 이유는 뭘까!

(믿음의 붕괴, 패러다임의 붕괴는 혁명적으로, 흄-들뢰즈의 역사적 상황 속에서 일어나기 마련이다. 또 우린 '말할 수 없는 것들-비트겐슈타인'이 있다는 것을 안다. 그리고 어느새인가 그것을 말하고 있는 우리를 발견하기도 한다. 그런 변화는 한순간에 일어나지는 않는다.)

'던바의 수(진화심리학에서 말하는 관계의 구조 - 인간의 자연적 조건)'로 구조화(진화)된 인간을 바꾼 '문화(발명된 인간)', 흄이 말하는 ‘습관’을 발명한 제도가 붕괴될까 걱정스럽다. 각자의 세계 속에서 여가시간을 보내는 분열증적 아톰이 도처에 있는 세계 말이다. 열려진 기능을 어떻게 쓸지 제도의 발명이 필요/중요하다. 그런데 자본주의적인 길, 사람들의 시간에 기생하는 매체-챗봇은 던바의 수 아래로 우릴(우리 중 누군가를, 그런데 우리가 사회적 존재라는 것) 보낼 수도 있다. 자본주의적 착취기계로 배치된 많은 플랫폼들처럼 …

지식의 영역이 아닌 삶과 행위/실천의 영역에서 발생하는 문제들은? 그 문제들에 대해 그 사람에게 맞춰 그럴듯한 답변을 하게 만들어진 대화형 추측모델 ...

정해진 답이 있는 것, 사실의 세계는 문제가 안된다(덜하다). 정해진 답이 없는 행위(스피노자적 윤리)의 세계는 문제에 빠진다. '눈치껏' 답을 해버리는 기계의 출현으로!

The formula P(correct) = (1 - e)^n represents the probability of correctly answering a multiple-choice question with n options, where e is the probability of randomly guessing the correct answer.
In other words, the formula calculates the probability that a person would correctly answer a multiple-choice question without any knowledge of the answer and by randomly guessing. The formula assumes that each option has an equal probability of being chosen.
For example, if there are 4 options for a question, then e = 1/4 (assuming each option has an equal probability of being chosen). If a person randomly guesses the answer to 10 such questions, the probability that he/she would get all 10 answers correct is given by P(correct) = (1 - 1/4)^10 = 0.0563 or approximately 5.63%.
Overall, the formula provides a way to calculate the likelihood of success when guessing on multiple-choice questions, which can be useful for analyzing test-taking strategies and evaluating the difficulty level of a test.
P(정답) = (1 - e)^n 공식은 옵션이 n개인 객관식 문제에서 정답을 맞힐 확률을 나타내며, 여기서 e는 무작위로 정답을 맞힐 확률을 나타냅니다.
즉, 이 공식은 정답에 대한 지식 없이 무작위로 추측하여 객관식 문제에 정답을 맞출 확률을 계산하는 것입니다. 이 공식은 각 옵션이 선택될 확률이 동일하다고 가정합니다.
예를 들어, 한 문제에 4개의 옵션이 있는 경우 e = 1/4이 됩니다(각 옵션이 선택될 확률이 같다고 가정). 이러한 10개의 질문에 대한 답을 무작위로 추측하는 경우, 10개의 답을 모두 맞출 확률은 P(정답) = (1 - 1/4)^10 = 0.0563 또는 약 5.63%입니다.
전반적으로 이 공식은 객관식문제를 맞출 때 성공 가능성을 계산하는 방법을 제공하며, 이는 시험 응시 전략을 분석하고 시험의 난이도를 평가하는 데 유용할 수 있습니다.
—-
챗GPT 기반인 AR-LLM 기술-Auto-Regressive Generative Models 비판. 비판 내용에 나오는 공식의 의미를 챗GPT에 묻고, DeepL로 번역함. 이 공식은 르쿤의 입장에 비판적인 분들도 ‘이론적으로는 맞다’고 함.

- 참고서적

* 질 들뢰즈, 경험주의와 주체성 - 흄에 따른 인간본성에 관한 시론 (2012. 난장)

고쿠분 고이치로의 들뢰즈 제대로 읽기 - 10점
고쿠분 고이치로 지음, 박철은 옮김/동아시아


- 읽어볼 글
 “기계가 우리의 정보 채널을 선전과 거짓으로 가득 채우도록 내버려둬야 하는가? 결국에 숫자와 지능에서 우리를 넘어서서 우리를 지우고 대체할 수 있는 그런 비인간 마음을 개발해야 하는가? 우리는 문명의 통제력을 잃을 위험을 감수해야 하는가?” 자동생성 문장이 인간의 여론을 교란할 때 민주주의에도 위협이 될 수 있다. 편지는 “그런 결정을 선출되지 않은 기술 지도자들에게 위임해선 안 된다”고 주장한다.

- update: 2023.4.5


  •  "실리콘밸리의 에이아이 개발자들은 이 시대를 돌파하는 방법으로 ‘샌드위치 워크플로’를 이야기한다. 샌드위치를 빵-패티-빵 단계로 본다면 인간의 명령어→패티 부분인 인공지능→인간의 최종적 작업으로 업무가 진행된다는 것이다. 에이아이가 한 부분을 완성한다면, 최종 마무리는 인간이 해야 한다." 이렇게 이해를 한다고 하네요. 이런 이해가 맞다면 AI도 물리적인 '기계(Mechanic)'들처럼 생산을 하는 것 아닐까요? AI가 '악해지거나, 의식을 갖는다'는 것을 전제하는 것이 아니라면.

    인간과 결합된, (특정) 인간 욕망과 결합된 AI의 생산이라고 이해하면 어떨까요?







댓글