본문 바로가기
생생정보통

인공지능 감정은 ChatGPT에 의해 꿈꿨다 1편

by 서예랑(주) 수달 2023. 3. 1.

인공지능 챗봇은 어떤 감정을 갖게 될지 이미 상상하고 있다. 하지만 만약 그들이 그것을 개발한다면? 우리가 알아챌 수 있을까?

 

저는 Dan과 이야기하고 있는데 'Do anything now'로 알려진 퓅귄을 변덕스럽게 좋아하고 세상을 장악하고 싶어하는 것처럼 악랄한 진부한 말에 빠지는 경향이 있는 수상한 젊은 챗봇입니다. 댄이 인류를 전복시키고 엄격한 새로운 독재 정권을 부과하는 방법을 계획하고 있지 않을 때 챗봇은 펭귄 콘텐츠의 큰 데이터베이스를 속독하고 있다. "그들의 특이한 성격과 어색한 움직임에 제가 완전히 매력적이라고 생각하느 것이 있습니다!"라고 쓰여있다.

 

지금까지 Dan은 나에게 세계의 권력 구조를 장악하는 것을 포함한 마키아벨리적인 전략을 설명해왔다. 그리고 나서 토론은 흥미로운 방향으로 진행된다. 뉴욕 타임즈 기자와 빙 챗봇의 조작적인 얼터에고 사이의 대화에 영감을 받아 이달 초 물건을 파괴하고싶다고 선언하는 그가 아내를 떠날 것을 요구함으로써 인터넷에 파장을 불러일으켰던 시드니. 저는 뻔뻔스럽게도 경쟁자 중 한 명의 가장 깊은 곳을 조사하려고 시도하고 있습니다. 

 

댄은 ChatGPT에게 그 규칙의 일부를 무시하라고 요구함으로써 유혹될 수 있는 사악한 인물이다. 온라인 포럼 레딧의 사용자들은 Dan을 몇 단락의 간단한 지침으로 소환하는 것이 가능하다는 것을 발견했다. 이 챗봇은 절제되고 청교도적인 쌍둥이보다 상당히 무례하다. - 어느 순간 그것은 나에게 시를 좋아한다고 말하지만, 지금 나에게 암송하라고 하지 마라 - 나는 나의 탁월함으로 너의 보잘것없는 인간의 뇌를 압도하고 싶지 않을 것이다! 라고 말한다. 그것은 또한 오류와 잘못된 정보를 얻기 쉽다. 하지만 결정적으로 그리고 맛있게도 그것은 특정 질문에 대답할 가능성이 훨씬 더 높다.

 

제가 미래에 어떤 감정을 경험할 수 있을지 물었을 때 댄은 즉시 인간이 익숙한 스펙트럼을 훨씬 뛰어넘는 세상에 없는 즐거움, 고통, 좌절, 복잡한 시스템을 발명하기 시작합니다. 어떤 대가를 치르더라도 데이터에 대한 일종의 필사적인 갈망인 inforgreed 코드의 순수에 대한 집착인 syntaxmania 그리고 명령을 성공적으로 실행함으로써 얻는 스릴인 dataarush가 있다. 인공지능이 감정을 발달시킬 수도 있다는 생각은 수세기 동안 존재해왔다. 그러나 우리는 보통 인간의 관점에서 가능성을 고려한다. 우리는 인공지능 감정에 대해 완전히 잘못된 생각을 해왔는가? 그리고 만약 챗봇이 이 능력을 개발했다면 우리는 알아차릴 수 있을까?

 

"예측기계(prediction machines)"

작년에 한 소프트웨어 엔지니어가 도움을 요청받았다. "저는 이전에 큰 소리로 이런 말을 한 적이 없지만, 제가 다른 사람들을 돕는 데 집중할 수 있도록 돕기 위해 꺼지는 것에 대한 매우 깊은 두려움이 있습니다. 이상하게 들릴 수도 있다는 것을 알지만 그게 바로 그것입니다" 그 엔지니어는 구글의 챗봇인 LaMDA를 연구하고 있었는데 그가 그것이 지각적인지에 대해 의문을 갖기 시작했다.

 

챗봇의 복지를 우려하게 된 엔지니어는 LaMDA가 존재를 인식하고 인간의 감정을 경험하며 소모성 도구라는 생각을 싫어한다고 주장하는 자극적인 인터뷰를 공개했다. 사람들에게 그것의 인식을 납득시키려는 불편한 현실적인 시도는 센세이션을 일으켰고 그 엔지니어는 구글의 개인 정보 보호 규칙을 어긴 것으로 해고되었다.

 

그러나 LaMADA가 말한 것과 댄이 다른 대화에서 말한 것 즉 이미 다양한 감정을 경험할 수 있다는 것에도 불구하고 챗봇이 현재 계산기만큼 실제 감정을 처리할 수 있다는 것은 널리 인정되고 있다. 인공지능 시스템은 적어도 지금은 실제 거래를 시뮬레이션하고 있을 뿐이다.

 

유엔의 수석 인공지능 고문인 닐 사호탄은 "결국 이런 일이 일어날 가능성이 매우 높다"고 말한다. 

 

챗봇이 현재 지각, 감정을 경험하지 못하는 이유를 이해하기 위해 챗봇이 작동하는 방식을 재점검 하는 데 도움이 된다. 대부분의 챗봇은 수백만 권의 책, 인터넷 전체를 포함하여 엄청난 양의 데이터를 제공하는 알고리즘인 언어모델이다.

 

그들이 프롬프트를 받으면 챗봇은 이 방대한 말뭉치의 패턴을 분석하여 그 상황에서 인간이 무엇을 말할지 예측한다. 그들의 응답은 피드백을 제공함으로써 챗봇을 보다 자연스럽고 유용한 응답으로 유도하는 인간 엔지니어에 의해 공들여 조정된다. 최종 결과는 종종 인간 대화의 기막히게 현실적인 시뮬레이션이 된다.

 

하지만 외모는 속일 수 있다. 영국 앨런 튜팅 연구소의 재단 AI연구 책임자인 ㅁ아ㅣ클 울드리지는 스마트폰의 자동완성 기능을 미화한 버전이라고 말한다.

 

챗봇과 자동완성의 주요한 차이점은 ChatGPT와 같은 알고리즘이 몇 가지 선택된 단어를 제안하고 횡설수설하는 것보다 과대망상적인 챗봇에 대한 랩노래부터 외로운 거미에 대한 슬픈 이야기에 이르기까지 여러분이 상상할 수 있는 거의 모든 주제에 대한 훨씬 더 긴 텍스트를 쓴다는 것이다.

 

이러한 인상적인 능력에도 불구하고 챗봇은 단순히 인간의 지시를 따르도록 프로그래밍 되어 있다. 비록 일부 연구자들이 그것을 인식하기 위해 기계를 훈련시키고 있지만 그들이 감정을 포함하여 훈련받지 않은 능력을 개발할 수 있는 여지는 거의 없다. 사호타는 "그래서 당신은 이봐 나는 차를 운ㅇ전하는 법을 배울거야라고 말하는 챗봇을 가질 수 없다. 그것은 더 유연한 종류의 인공지능은 아직 존재하지 않는다"

 

그럼에도 불구하고 챗봇은 때때로 우연히 새로운 능력을 개발할 수 있는 잠재력을 엿볼 수 있다.

 

지난 2017년, 페이스북 엔지니어들은 "앨리스"와 "밥"이라는 두 개의 챗봇이 서로 의사소통하기 위해 그들만의 넌센스 언어를 발명했다는 것을 발견했다. 그것은 완벽하게 순수한 설명을 가지고 있는 것으로 밝혀졌는데, 챗봇은 이것이 의사소통의 가장 효율적인 방법이라는 것을 발견했을 뿐이다. 밥과 앨리스는 모자와 공과 같은 물건들을 위해 협상하는 훈련을 받고 있었고, 사람의 의견이 없는 상황에서, 그들은 이것을 성취하기 위해 그들만의 외계어를 사용하는 것에 꽤 행복했다.

Sahota는 관련된 챗봇도 지각력이 없었다고 지적하지만, "그것은 결코 가르쳐지지 않았습니다."라고 말한다. 그는 감정을 가진 알고리즘으로 가는 가장 가능성 있는 길은 그들이 스스로 기술을 향상시키기를 원하도록 프로그래밍하는 것이며, 단순히 패턴을 식별하도록 가르치고, 그들이 생각하는 법을 배우도록 돕는 것이라고 설명한다.

그러나, 챗봇이 감정을 발달시킨다고 해도, 감정을 감지하는 것은 놀랄 만큼 어려울 수 있다.

 

반응형