상단여백
HOME Opinion Voices Editorial
AV(Automobile Vehicle) 딜레마

최근 인공지능(AI)기술이 빠른 속도로 확산되고 있다. AI가 내장된 지능형로봇은 인간의 삶의 질을 높이는 데 기여하겠지만 그러한 고도의 기술이 악용되어 살상무기로 활용된다면, 그러한 세상은 상상만해도 끔찍하다. 이러한 시대가 올 것을 예측하고 방지하고자 1942년 아이작 아시모프는 로봇 윤리 3원칙이라는 이름으로 로봇을 제어할 지침을 공표했다. (1원칙:로봇은 인간에게 해를 가할 수 없다. 2원칙:로봇은 인간의 명령에 복종해야함 3원칙: 로봇은 1.2원칙에 어긋나지않게 자기자신을 지켜야한다.)

최근 자율주행자동차(Automated Vehicle:AV)라는 최첨단 수송로봇의 상용화를 앞두고 AV에 적용할 로봇원칙이 필요하다는 주장이 제기되고 있다. 이 논란의 쟁점을 파악하기 위해서 먼저 '트롤리 딜레마'를 알아야한다. 트롤리 딜레마는 브레이크가 고장난 기차가 매우 빠른 속도로 노동자 5명을 향해 가고있는 상황에서 5명을 살리기 위해 1명이 있는 철도로 선회하겠는가? 라는 난관이다. 이 상황과 유사하게, AV의 브레이크가 고장난 상태에서 매우 빠른 속도로 갈림길에서 5명의 성인과 1명의 어린이 중 한 쪽을 희생시켜야하는 상황이다.
만약 이 상황이라면 과연 AV는 어떻게 윤리적인 사고를 하여 마땅히 대응하겠는가?
만약 당신이 이 두 상황에대해 다수의 생명을 살리겠다는 선택을 하였다면, 당신은 공리주의적인 시각에서 이 난관을 바라본것이다. 하지만 당신의 공리주의적인 선택은 당신이 생명의 천부적,불가침적인 가치를 간과하고 있다는 것을 반증한다. 생명의 가치는 누구에게나 동등하면서, 가치를 수로 매겨진 수치로 평가할 수 없기 때문이다. 또한 로봇 윤리원칙에 따르면, AV 딜레마 역시 합리지능형 로봇은 성별, 연령, 장애 여부, 인종, 국적 들을 이유로 인간을 차별할 수도 없다. 이러한 문제들 때문에, 로봇에대한 법칙이 정리되지 않아 AV의 윤리적 판단에대한 연구는 시간이 걸릴 것이다. 따라서 현재 AV의 완전 상용화는 불가능하다고 본다.


만약 로봇이 아시모프의 로봇 윤리 3원칙 중 법률을 위반한다면, 그것은 시민들의 기본권중 하나인 안전권을 침해하기 때문에 국가 최고법인 헌법으로 규제해야 로봇 제작 회사가 로봇을 좀 더 신중히 제작할 수 있다. AV의 딜레마에서 AV는 로봇윤리의 1원칙을 위반하였기에, AV제작회사에 큰 처벌을 내려야한다. 또한 애초에 이러한 사고를 방지 하기위해 AV가 정해진 통로로만 이동할 수 있도록 설계를 하고, 보행자 역시 정해진 인도로만 다니는 준법 의식을 갖추어야 한다.

이처럼 과학적인 기술은 발달하였지만, 윤리적인 측면은 과학기술의 속도를 따라가지 못하기에, AV와 같은 첨단 기술은 상용화되기가 어려운 현실이다.그렇지만 이번 기회로 새로운 직업인 로봇 법학, 로봇 윤리학 등 여러가지 직업이 창출될 것으로 전망된다. 하루빨리 이 딜레마가 철학처럼 깨지는 날이 찾아와, 미래 첨단 기술로 대한민국이 번영하는 시대가 오기를 소망한다.

이효종  lhj_0928@naver.com

<저작권자 © The Leaders Tribune , 무단 전재 및 재배포 금지>

이효종의 다른기사 보기
icon인기기사
기사 댓글 0
전체보기
첫번째 댓글을 남겨주세요.
여백
여백
여백
Back to Top