트롤리 딜레마와 인공지능 – Why Self-Driving Cars Must be Programmed to Kill – 2024컴공, 철학 세특주제


트롤리 딜레마의 철학적 관점과 인공지능의 판단

컴공, 공학을 준비하는 학생들의 경우 대부분 이과적 부분을 강조하는 세특을 준비합니다. 그러나 이과라는 것은 어떠한 필요성을 이해하고 개발을 하는 철학적 원리에서 출발한다고 생각하는 관점도 있습니다.

따라서 세특을 준비할때 이러한 부분을 구성한다면 조금 더 부드러운 문장이 이어질 수 있습니다.


트롤리 딜레마의 윤리적 고찰

트롤리 딜레마는 생명을 희생하는 결정을 내리는 윤리적 딜레마를 제시합니다. 이 문제는 어떤 상황에서 어떤 행동을 선택해야 하는지에 대한 이해를 높이는 중요한 주제입니다.

한 대의 트롤리가 달려오고 있습니다. 그 앞에는 다섯 명의 사람들이 횡단보도를 건너고 있습니다. 인도위에는 한명의 사람이 걸어가고 있습니다.

여기서 어떠한 선택을 하는것이 윤리적으로 맞다고 생각되나요? 이러한 판단을 인공지능은 어떻게 판단할까요?

단순히 수학적(확률)로서 적은 인원을 선택하는것이 맞을까요?

트롤리 딜레마는 윤리적 이론들 간의 충돌을 드러내며, 결과주의와 의무론 사이에서의 판단을 요구합니다.

결과주의적 관점에서는 최소한의 피해를 입히는 선택이 윤리적으로 옳다고 주장할 수 있습니다.

그러나 의무론적 관점에서는 의무를 준수하는 것이 중요하므로, 인도를 걷는 사람은 피해를 보면 안됩니다.

여러분은 어떠한 선택이 맞다고 생각되나요?


트롤리 딜레마의 철학자들의 견해정리


결과주의적(최선의 결과) 관점:

결과주의적 철학자들은 결과적으로 가장 적은 피해를 입히는 선택을 옳다고 주장합니다. 따라서 다섯 명의 생명을 구하기 위해 한 명의 생명을 희생하는 선택을 지지할 수 있습니다.이러한 관점을 공리주의라고 표현합니다. 즉 최대 다수의 최대 행복이라는 관점입니다.

그러나 공리주의에는 개인적인 시각차에 따라서 다르게 해석되는 맹점이 있다. 만약 한명이 내 가족이라면 당신은 결과주의적으로 선택할 수 있을 것인가? 라는 질문을 던져봅니다.

존 스튜어트 밀은 19세기 영국의 철학자로, 자유주의와 공익주의의 중요한 옹호자로서 알려져 있습니다. 그의 윤리학적 관점은 결과주의에 기반을 두고 있으며, 트롤리 딜레마의 해석에서도 이 관점을 적용합니다.

결과주의란 행동의 옳고 그름을 그 행동이 가져오는 결과에 따라 판단하는 윤리적 이론입니다. 밀은 최대 다수의 최대 행복의 원리를 제시하여 사회적 행동은 최대한의 행복을 가져다주는 방향으로 이루어져야 한다고 주장했습니다.

밀은 적은 피해를 입히는 선택을 택하면서도 행복의 증진을 위해 의도적인 희생을 택하는 것은 윤리적으로 옳은 결정이라고 주장합니다.


의무론적(의무와 원칙) 관점:

의무론적 관점에서는의 칸트의 관점은 ‘의무와 원칙을 중시하기 때문에 다섯 명의 생명을 희생하는 선택은 절대적인 의무를 위반하는 것으로 여겨집니다’ 한명과 다섯명의 희생을 선택함에 있어 인간의 본성은 의무적으로 적은피해를 선택하는것이 올바른 판단이라고 합니다. 따라서 한명을 선택하지 않으면 도덕적으로 훼손된다고 주장합니다.

이마누엘 칸트 (Immanuel Kant) – 의무론적 관점

이마누엘 칸트는 18세기 독일의 철학자로, 형이상학과 윤리학 분야에서 많은 영향력을 보여준 철학자입니다. 그의 윤리학적 관점은 의무론에 근거하며, 트롤리 딜레마에 대한 해석에서도 이 관점을 유지합니다.

칸트의 의무론적 윤리학은 “칸트의 의무론”으로 잘 알려져 있습니다. 행동의 옳고 그름은 그 행동이 따르는 원리와 의무에 의해 결정된다고 주장합니다. 칸트는 행위의 결과보다는 동기를 중요시하고 의무 의식에서 나온 행위만이 도덕적 가치를 지닌다고 판단하였습니다.

칸트의 관점은 결과적 판단에 대한 비판적인 태도를 가지고 있습니다. 그러나 칸트의 의무론은 경우에 따라 절대적인 원칙들이 충돌할 수 있다는 점에서 한계를 가지고 있습니다.

트롤리 딜레마와 같은 복잡한 상황에서 칸트의 의무론이 적용되면 의무(동기)들 간의 이해충돌이 발생되어서 동기와 결과를 명확하게 판단하기 어렵다는 비판이 제기됩니다. 빠른 판단이 어렵다는 부분이죠

칸트의 관점은 의무의 절대성을 강조하면서도 실제적인 상황에서의 판단에 대한 불확실을 남겨두고 트롤리 딜레마에 대한 해석을 논의하는 데 사용됩니다.

이러한 문제를 생각해 볼 수 있습니다.

인도를 걷고있는 사람의 경우에는 법과 규칙에 따라서 안전한 보행의 의무를 지키고 있습니다. 따라서 위와같은 경우에 인도를 걷는 사람의 생명은 지켜야한다는 관점입니다. 따라서 의무론적인 입장이 동기를 중요시한다고 하지만, 그 결과 법과 규칙을 지키는 부분에 대하서 이해충돌이 일어날 가능성이 있다는 생각도 가능합니다.


트롤리 딜레마, 인공지능이 해석가능한가?


인간의 뇌신경망 구조로 딥러닝이 가능한 인공지능의 판단은 어떤 해석이 가능할지 질문해본다

인공지능은 트롤리 딜레마와 같은 윤리적인 상황을 해석하고 판단할 수 있지만, 이는 프로그래밍과 학습된 데이터에 따라 학습이 달라질 수 있다.

인공지능은 데이터와 알고리즘을 기반으로 작동하며, 트롤리 딜레마와 유사한 시나리오를 분석하고 판단할 수 있는 능력은 사전 데이터를 바탕으로 학습됩니다.

예를 들어, 자율 주행 자동차의 경우, 인공지능은 주어진 상황에서 다양한 요소를 고려하여 최선의 판단을 내리도록 학습됩니다. 이러한 판단은 프로그래밍된 윤리적 원칙, 미리 정의된 규칙, 학습된 데이터, 시뮬레이션 등을 기반으로 이루어질 수 있습니다.

인공지능의 판단은 한계와 도전점을 가집니다. 인공지능은 주어진 데이터와 패턴에 기반하여 예측을 수행하지만, 윤리적인 상황은 무한한 가능성과 복잡성을 가지기 때문에 항상 정확한 결론을 내리기 어려울 수 있습니다.

또한 트롤리 딜레마와 같은 상황은 다양한 윤리적 이론을 필요로 하며, 어떤 선택이 가장 합리적인 판단인지 결론을 내리는 부분에 대해서 인공지능의 윤리적 문제점에 대한 이슈는 지속적으로 제기됩니다.

위 내용은 2015년도에 자율주행 프로그램의 시작단계에서 제기된 이슈내용입니다. 인공지능에게 자율주행 학습을 진행시 사고를 예측한 상황에서 판단을 내리도록 프로그램되는 윤리적 이슈를 제기한 내용입니다.

그러나 현재 우리주변에는 자율주행차가 이미 다니고 있습니다.

약 8년동안 어떠한 변화가 있었을까요? 생각해볼 문제입니다.


https://www.technologyreview.com/2015/10/22/165469/why-self-driving-cars-must-be-programmed-to-kill/


정리하며

컴공, 공학, 의학, 미디어등 진로를 선택한 학생들의 세특은 해당 이과부분과 전공부분을 표현하려는 프레임이 있습니다.

그러나 조금더 넓게 생각해본다면 철학적 사고방식을 함께 표현하면 부드러운 문장과 근본적인 문제를 깊이있게 나타낼 수 있습니다.

따라서 가벼운 정도를 넘어선 한번정도의 깊이있는 보고서를 작성한다면 세특에서 조금더 논리적인 표현이 나올 수 있는 콘텐츠가 될 수 있습니다.

참고하시기 바랍니다.

참고링크

철학교수의 AI 이야기<2> 미래인공지능과 인간의 관계, 어떻게 설계되어야 하는가?

https://www.hankyung.com/it/article/202107141722i

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다