상단여백
HOME Business Technology
What Is the Ethical Problems of AI?Based on Trolley Dilemma

In 2016, Microsoft uploaded interactive AI 'Tay' onto Twitter. Tay is an intelligent person who can learn like AlphaGo, and was expected to grow thinking skills through dialogue. But few hours later, Tay quickly grew to be a racist as he began to express hatred of Muslims and women. Surprised Microsoft stopped Tay's activities in 16 hours. Such reactions have reminded people of the dangers of creating artificial intelligence without ethical value judgment.

The unexpected response of artificial intelligence by humans is also a problem, but one of the ethical issues mentioned in relation to the development of artificial intelligence is the "the selection of automatic driving cars." For instance, an automatic driving car is driving without a human driver, and suddenly the life of a passenger is thought to be in danger, so we turn the wheel to avoid it. However, when the wheel is turned, several pedestrians are hit by cars and killed. In this situation, which way should artificial intelligence choose to drive automatic driving cars? Should we protect one passenger? Or should we save a multitude of passersby?

Before answering that questions, we cannot help but look at a similar 'Trolley's dilemma'. The trolley is running with a broken brake. If the train doesn't stop, five workers who work on the rail face death. The only way to save five people is to change the direction of the train with a rail converter. But there is one worker on the other rail, so when you convert the rail, the one person dies. In this situation, what would you choose?

When considered dispassionate and rational, it may be better to kill one person than many in this dilemma if we apply this situation to simple utilitarianism of "the greatest happiness of the greatest number." However, when people faced with questions such as the ability to kill innocent people to prevent any serious situation, people react completely differently. It is therefore difficult to find a solution.

2016년 마이크로소프트는 대화형 인공지능 ‘테이Tay’를 트위터에 업로드했다. 테이는 알파고처럼 학습이 가능한 인공지능으로서 대화를 통해 사고력을 기르며 성장할 예정이었다. 하지만 몇 시간 후 테이는 유대인, 무슬림, 여성에 대한 혐오를 쏟아내기 시작하면서 순식간에 인종 차별주의자로 성장했다. 놀란 마이크로소프트는 16시간 만에 테이의 활동을 중단시켰다. 이와 같은 테이의 반응은 사람들에게 윤리적 가치판단 없이 인공지능을 제작했을 때 일어날 수 있는 위험성을 일깨워주었다.

이처럼 인간이 미처 예상치 못했던 인공지능의 반응도 문제지만, 인공지능 개발과 관련하여 대표적으로 언급되는 윤리 문제 중 하나는 ‘자율주행차의 선택’ 문제다. 자율주행차가 인간 운전사 없이 주행 중인데, 갑자기 탑승자 한 명의 목숨이 위험한 상황이라고 판단되어 이를 피하려고 핸들을 돌린다고 하자. 그런데 핸들을 돌리게 되면 보행자 여러 명이 차에 치여 숨지는 상황이 발생한다. 과연 이 상황에서 자율주행차를 움직이는 인공지능은 어느 쪽을 선택해야 할까? 탑승자 한 명을 보호해야 할까? 아니면 다수의 행인을 구해야 할까?

답변을 하기 전에 이와 유사한 ‘트롤리의 딜레마trolley’s dilemma’ 상황을 살펴보지 않을 수 없다. 브레이크가 고장 난 트롤리 기차가 달리고 있다. 기차가 멈추지 않으면 레일 위에서 일하고 있는 5명의 인부가 죽게 될 처지다. 5명을 구하는 유일한 방법은 레일 변환기로 기차의 방향을 바꾸는 것뿐이다. 그런데 또 다른 레일 위에는 한 명의 인부가 있기 때문에 레일을 변환하게 되면 그 한 명의 인부가 죽는다. 이 상황에서 당신이라면 어떤 선택을 하겠는가?

냉철하고 이성적으로 생각했을 때, 이와 같은 딜레마 상황에서 여러 명보다는 한 명을 죽이는 것이 더 바람직한 것으로 생각할 수도 있다. ‘최대다수의 최대행복’이라는 단순한 공리주의를 적용한다면 말이다. 그러나 사람들은 어떤 심각한 상황을 막기 위해 아무 죄도 없는 사람을 죽일 수 있는가와 같은 질문에 직면했을 때에는 전혀 다른 반응을 보인다. 따라서 그 해결 방법을 찾는 것이 만만치 않다.

박준혁  jklnmb2007@naver.com

<저작권자 © The Leaders Tribune , 무단 전재 및 재배포 금지>

박준혁의 다른기사 보기
icon인기기사
기사 댓글 0
전체보기
첫번째 댓글을 남겨주세요.
여백
여백
여백
Back to Top