Cognita Sapiens [847641] · MS 2018 · 쪽지

2025-01-06 08:27:57
조회수 875

인공지능 윤리, 인공지능에게 육체가 주어진다면?

게시글 주소: https://i9.orbi.kr/00071105782





 이번 편은 제가 이번 학기에 '인공지능 윤리'라는 수업에 발표한 내용을 바탕으로 칼럼 형식으로 재작성이 되었습니다.




 https://blog.naver.com/cognitasapiens/223653368062




 인공지능에도 윤리가 필요하다니, 참 웃기죠? 그런데 전 이 수업에 상당히 만족할 수 밖에 없었습니다. 각종 최근 유행하는 GAI나 기타 다양한 인공지능 도구, 그것을 활용하는 방법을 소개해줄 뿐만 아니라, 부작용과 절대적 믿음의 위험성, 인공지능의 실수와 편견, 편향성, 할루시네이션(구라치는 거) 등의 여러 윤리적 문제, 철학적 문제를 다루기도 하였고 교수님이 과학 철학 전공자이신데 일론 머스크의 스페이스 x가 마치 역재생처럼 로켓이 돌아오는 소식을 바로 다음날 말씀해주시는 등 새로운 기술에 굉장히 민감하고 기민하게 반응하시더군요.





발사가 아니라 회수하는 장면. 이로써 로켓의 가격을 획기적으로 줄일 수 있게 되었습니다

https://www.news1.kr/it-science/general-it/5567902





 특히 흥미로웠던 것은 각자 발표를 시켰는데, 조를 크게 6개 정도로 묶어서 주제를 나눴거든요 뭐 예컨데 저는 제조로봇과 하드웨어, 다른 분야는 보건 복지, 어느 팀은 교육, 어느 팀은 연구 및 과학 활동 등등. 각 분야에서 발생 가능한 윤리적 문제를 다루었는데, 상당히 흥미로웠습니다 예컨데 자율주행차가 사람을 쳐버리면 인공지능? 인공지능 개발자? 운전자? 보행자? 누가 책임을 져야 하는지 상당히 애매해집니다.




 인공지능이라는 기술은 여태 인류가 겪어보지 못한 매우 강력한 기술이기에, 그것의 활용 과정에서도 문제가 발생하기도 합니다. 당장 인공지능한테 CEO의 모습을 이미지로 생성해달라고 한다면, 남자를 압도적으로 많이 생성하고, 또한 데이터 센터 등 인공지능을 돌리는 데에 큰 에너지가 많이 들어서 환경 오염 문제가 대두되고 있습니다.




 당장 단순 검색은 0.2~0.3g의 탄소를 배출하지만, GTP-3같은 대형 언어 모델의 경우에는 2~5g의 탄소를 배출하는 등 탄소 배출과 더불어 막대한 냉각수, 전력 소비로 인하여 이제는 거꾸로 인간이 마실 물이나 식량 생산에 필요한 물, 생활에 필요한 전기까지 잡아먹는 등 문제가 불거지고 있습니다. 아마 제 개인적인 생각인데, 정말 원전이 친환경이냐 아니냐를 떠나서 이런 트렌드로 가면 원전은 계속 급격히 불어나는 방향으로 인류가 발전하다가, 원전 사고 등 핵전쟁에 준하는 과정을 통해 멸망할 수도 있지 않을까 걱정이 되더군요.




 특히 저는 앞서 말씀드린 것처럼 제조산업과 로봇이라는 주제로 할당받았는데 너무 좋았습니다! 제가 누굽니까 바로 재료공학, 지겹게 하드웨어에 대해서만 배우는 학과 출신입니다. 그래서 과거 이대열 교수님의 <지능의 탄생>을 바탕으로, '인공지능에게 육체가 존재한다면 이전과 차원이 다른 다양한 윤리적 문제가 발생할 것이다' 라는 주제로 발표를 했습니다.








 

중국군은 4족 보행 로봇에 자국 군인이 사용하는 주력 돌격소총을 결합하여 사용하는 등 여러 혁신적인 시도를 하고 있는데, 딱봐도 여러 문제가 발생할 듯 하죠? 인공지능이 착각해서 민간인을 쏜다거나, 아니면 조종사가 실수를 한다던지 오발 사고가 난다던지 등등







 이대열 교수님의 <지능의 탄생>에서 인공지능이 어떻게 인간을 멸종시킬 수 있는가? 인공지능이 강력해지면 인간을 뛰어넘으면 인간은 도태될 것인가?에 대해서 나름 본인의 주장을 풀어낸 부분이 매우매우 흥미로워서 좀 가져와봅니다. 물론 이번에 제프리 힌턴인가 노벨상을 받은 인공지능의 대부께서는, 30년 이내에 인류가 멸망할 확률이 10%에 달한다는 등 무시무시한 예측을 하시는 것으로 유명합니다.




 그런데 이대열 교수님은 단순히 인공지능이 강력하고 인간을 뛰어넘기에 인류를 멸종할 것이라고 주장하지 않으십니다. 오히려, 애초에 인류를 뛰어넘을 수 없다고 하십니다 이게 무슨 소리인지 좀 알아보겠습니다.




 인공지능은 주로 컴퓨터라는 가상 세계에 존재하는데, 인공지능의 흥미로운 특징 중 하나가 바로 '상식'이라는 것이 없다는 것입니다. 상식이 뭡니까? 매너라고 하죠? 보통 매너는 육체와 긴밀한 연관이 있다는 것이 제 주장입니다. 한번 이야기를 해보겠습니다.




 우리가 악수를 하는 것의 유래는 내가 오른손에 무기가 없다는 것을 보여주는 것에서 시작하였고, 우리가 남과 부딪히거나 사소하게 발을 밟았을 때 재빨리 행동하고 미안하다고 사과하는 것, 날카롭고 위험한 것은 자신의 방향으로 가도록 식기를 배치하는 것, 서로 부딪히지 않기 위해서 우측보행을 하는 것 모두 우리의 육체와 관련이 있습니다. 육체라는 것은 소중하고 취약해서, 데미지를 입으면 고통을 느끼죠.




 인공지능에게는 통각이라는 것이 존재할 필요가 없는 것이, 얘네는 가상 세계에서 살기 때문입니다. 컴퓨터 전원을 꺼버리거나 무슨 서버 하드디스크를 훼손하지 않는 이상 인공지능은 죽는다는 개념, 부상을 당한다는 개념이 매우 희박합니다. 그래서 인간의 매너, 상식이라는 것을 마치 인간이 암흑물질을 다루는 것과 동일한 수준으로 무지하다고 어느 유명한 교수님이 그랬다는데, 정말 그럴 것 같습니다.








인공지능이 인간을 위협할 때가 언제인가? 바로 '자기복제기전'을 얻어서, 마치 생명처럼 활동을 할 때라고 주장하고 계십니다. 반드시 인류가 이런 식으로 진화한 인공지능에게 멸망할 것이라고는 확신하지 않지만(그러니까 인공지능 자체가 다른 종류의 기술과 핵무기에 대한 접근 등으로 인하여 멸망 가능성은 존재한다고 생각합니다), 이 교수님의 주장은 몹시 타당해보이고 설득력이 강했습니다







 생명의 본질은 무엇입니까? 생명을 가진 것들은 어떤 것을 가졌습니까? 바로 자기 복제 기전을 가졌습니다. 인간의 경우 암수가 쌍을 이루어서 자식을 낳고 유전자를 널리 퍼뜨리죠. 다른 동식물들도 마찬가지로 수명이 무한하지 않고, 자손을 퍼뜨리는 식으로 재생산을 하죠.




 여담인데 왜 수명이 존재하고, 자손을 낳아야 하는가? 라는 질문에 대해서 유력한 핵심 가설이 뭐였냐면, 수명이 길면 무조건 좋은게 아니라 부상을 당해도 회복을 못하는 위험성이 있기에, 쉽게 말해서 시간이 좀 지날 때마다 새로운 육체로 갈아 타기(?) 위해서 생명은 생식 활동을 한다는 설명이었습니다.




 아까 상식과 매너 이야기를 했죠? 우리에게 상식과 매너가 존재하는 것은, 우리가 바로 나약한 육체를 가진 존재이기 때문입니다. 그래서 전 거꾸로, 인공지능이 육체를 얻게 된다면 그야말로 상상을 초월하는 수준의 다양한 윤리적 문제가 발생할 것이라고 예측하였습니다.




 일단 제 주제는 인공지능 소방관 로봇에 대한 것이었습니다. 실제로 소방관은 위험한 현장에 들어갔다가 건물이 붕괴되거나, 생존자를 찾다가 화상을 심하게 입거나 동료의 죽음으로 PTSD를 얻는 등 항상 위험에 노출되어 있고, 특히 매연과 높은 밀도의 미세먼지는 1급 발암물질로 지정되어 있습니다. 소방관 외에도 군인 경찰들은 육체가 항상 부상을 당할 큰 위험에 처해져 있습니다.









 그런 소방관을 인공지능 로봇으로 대체하면, 쉽게 화상을 입지 않고(인간의 단백질 구조는 열에 의해서 쉽게 변형되고 비가역적으로 변형됩니다), 더욱 뛰어난 시각 기술(가시광선으로는 잘 안보이지만 적외선 등 여러 열감지 센서로 매우 뚜렷하게 보는 기술이 개발되고 있습니다), 더욱 단단한 육체와 강력한 에너지 출력(자동차의 힘을 인간 정도의 몸체로 낼 수 있다고 상상해보십시오)을 통해 인간을 더욱 많이 구할 수 있을 것이라고 생각을 하였습니다.




 그런데 이 과정에서 특히 중요하게 깨달은 점이 있습니다. 아까 이대열 교수님은 생명처럼 자기 복제 기전을 가진 인공지능이 인류에게 위협이 될 것이라고 말했잖아요? 전 이 말을 바로 이해를 할 수 있었습니다. 만약 인공지능이 로봇으로 육체를 가져서 자기 복제를 하고 생식을 한다면, 지구 상에 존재하는 한정된 자원에 대해 인간과 자연스럽게 경쟁 관계가 될 것이고 마치 네안데르탈인이 사피엔스에 비해서 에너지 효율성이 낮아서 멸종했다는, 연비설과 비슷한 일이 벌어질 가능성이 있고 이러한 주장이 교수님의 주장임을 연락을 통해 확실히 이해했습니다.




 특히 이때 전 깨달은 것이, 일단 자기 복제를 하려면 과연 '육체'가 있어야 하느냐는 깨달음이었습니다. 교수님은 자기 복제 기전을 강조하셨는데, 생각해보니 인공지능 로봇이 현실에 존재하는 순간 다양한 윤리적 문제가 발생한다고 제 발표에서 정리했습니다 예컨데 로봇개가 사람을 쏜다던지, 자율주행차가 실수로 사람을 치어버린다던지, 인공지능 소방관 로봇이 오작동을 해서 사람을 구할 수 있었는데도 못 구한다던지.




 전 발표 내내 인공지능에게 이러한 육체가 부여되는 것으로 인하여 이전과 다른 차원이 다른 여러 윤리적 문제의 시발점이 될 것이라고 하면서 열변을 토했는데, 이 원고를 준비하면서 느낀 것이 '그럼 생명체가 되기 위해서는 일단 육체를 가져야 하는가? 그게 금속이 되었든 유기질이 되었든, 현실에 존재하는 물리적 실체가 필요한가' 였습니다. 이에 대해 교수님께 질문해보니까, 아주 흥미로운 질문이라고 하시면서 만약 가상의 세계에 오로지 virtual하게(요새 유행하는 그 버츄얼 유튜버의 용어가 맞습니다 가상이라는 뜻이죠) 존재한다면 컴퓨터 바이러스로 보아야 하지 않겠느냐, 제 이야기가 타당한 것 같다고 공감하셨습니다.







와 진짜 누구 잘못이죠? ㅋㅋㅋㅋ 제가 만약 인공지능 개발자라면 굉장히 겁이 많이 날 듯 합니다. 내가 열심히 개발한 자동차가 필연적으로 사고를 내고 사상자를 낼 텐데, 개발자에 대한 책임만 강조한다면 결국 개발자들에게 사법 리스크를 심하게 전가하여 기술 발전을 저해하는 일로 이어질 것입니다




요새 인터넷 유머로 돌아다니더라구요. 하지만 우리의 예상과 달리 완전히 정 반대의 일이 벌어지고 있죠 은근히 블루칼라에 대한 비하도 섞여있는 듯 합니다. 누차 이야기하지만 모두가 선망하는 의사, 특히 외과 의사도 블루칼라이니까 주제 파악 못하고 블루칼라 비하하시는 분은 반성하시길 바랍니다 ^^






 위의 사진처럼, 저만큼 하드웨어 육체가 개발되어 정교한 움직임을 하기에는 매우 힘들다는 것을 방증하기도 합니다. 인간의 유연하고 섬세한 근육은 모방하기 매우 까다롭고 모방을 해도 너무 비싸서, 오히려 머리로만 가능한 소프트웨어나 화이트칼라 직종이 매우 빠르게 인공지능에게 대체되어가고 있는 와중에도 시계공이나 섬세한 작업을 요구하는 장인의 지위는 여전히 공고합니다. 의사도 그럴 것 같구요.




 그래서 저는 이번 윤리 발표를 준비하면서, 전혀 색다른 관점에서 문제를 바라볼 수 있었습니다. 평소에는 이대열 교수님의 주장을 따라서 아~ 인공지능이 생명체처럼 자기 복제를 하고 생식하면 인류와 경쟁할 수도 있겠군! 정도로 이해했는데, 그런데 일단 자기 복제를 하기 위해서는 복제를 할 대상, 즉 육체가 필요하지 않겠습니까?




 때문에 저는 인공지능이 인간과 비슷해지거나, 생명과 비슷해지기 위해서는 컴퓨터 밖으로 나와서 초보적이지만 육체를 가져야 한다고 대전제를 깔게 되었습니다. 아무리 무슨 LLM이다 거대 언어 모델이다 등으로 인간의 특정 분야에 대해서 초월적인 지능과 능력을 보여주는 컴퓨터도, 결국 가상 세계에 박혀있는 가상의 존재라는 것이죠.




 전 개인적으로 이과지만, 문과 학문 특히 철학이나 윤리학 덕분에 생각을 많이 하게 되고 사유가 풍부해지는 것 같습니다.(근데 이렇게 열심히 발표 준비를 했는데 A+는 못 받았습니다 ㅋㅋㅋㅋ) 아무리 이공계열이라도 여러분은 대학 가시면 더 다양한 세상과 넓은 경험을 하시길 바라고, 문과라면 이과 공부도 열심히 하시길 바랍니다 서로 시너지를 일으키는 것이 분명히 있습니다.


 




rare-세종대왕

0 XDK (+0)

  1. 유익한 글을 읽었다면 작성자에게 XDK를 선물하세요.


  • 첫번째 댓글의 주인공이 되어보세요.