AI(인공지능) 윤리의식 필요한가 – 자율주행차 트롤리

#인공지능윤리, #자율주행차트롤리딜레마, #자율주행레벨4, #고도자동화, #SAE, #자율주행차책임소재, #MoralMachine, #Shouldaselfdrivingcarkill thebabyorthegrandma, #WhySelfDrivingCars MustbeProgrammedtoKill, #인공지능윤리의정의,아이작시모프,지능,지능,인공지능,3가지룰,인공지능,인공윤리,인공지능,인공지능,인공지능,인공윤리

자율주행 레벨4 시대 2022년 6월 8일 국토교통부는 서울시와 함께 자율주행차가 시범운행하고 국민들도 일상생활 속에서 자율주행을 체험하는 서비스를 곧 공개하겠다고 밝혔습니다.

2025년까지 자율주행 대중교통 상용화와 2027년까지 레벨4 완전 자율주행 시대를 열기 위한 공동협력을 약속했습니다. 레벨 4 완전주행에 한 걸음 더 가까워질 전망입니다.

미국자동차공학회(SAE: Society of Automotive Engineers)가 제시한 ‘자율주행 기술 수준 단계’에서 레벨4 이상의 자율주행 기술은 운전자 및 승객의 조작 없이 운행할 수 있도록 설계된 영역인 ‘고도자동화'(레벨4)와 운전자가 아닌 탑승자의 개념이 되는 ‘완전자동화'(레벨5)를 의미합니다.

레벨 4와 레벨 5를 조금 나눠보면 레벨 4는 악천후와 돌발상황 발생 시 유사시 운전자 개입이 요구되는 단계이고 레벨 5는 운전자 개입이 필요 없는 자동차 스스로 주행환경 모니터링 및 돌발상황 대응이 가능한 기술단계를 의미합니다.

2030년 자율주행 서비스 일상화, 미래 모빌리티 선도국 도약 | 경제정책자료 | KDI 경제정보센터 자율주행단계, 2016년 국제자동차기술자협회(SAE International)에서 분류한 레벨 0~5(총 6단계)가 글로벌 기준입니다.

자율주행 기술은 시스템이 운전에 관여하는 정도와 운전자가 차를 제어하는 방법에 따라 비자동화에서 완전자동화까지의 단계로 나눌 수 있습니다.

운전자가 주행 환경을 모니터링 레벨 0 비자동화 – 자율주행 기술이 없는 단계, 비상 시 도움이 되는 차선이탈 경고, 사물감지 단순 보조 기능 레벨 1 운전자 보조 – 자율주행 시스템이 특정 주행 모드로 차량의 속도·브레이크를 제어하여 일정 속도를 유지하는 기능 레벨 2 부분 자동화 – 시스템이 자동차의 속도와 방향을 동시에 특정 상황에서 방향 변경, 간격 유지를 위한 속도 제어 가능

자율주행 시스템이 주행 환경을 모니터링 레벨 3 조건부 자동화 – 시스템이 운전 조작을 제어하지만 시스템의 운전자 개입 요청 시 운전자가 자동차 제어 레벨 4 고도 자동화 – 시스템의 판단에 따른 제어, 모니터링은 시스템이 제어하지만 돌발 상황까지 항상 제어할 수는 없는 단계 레벨 5 완전 자동화 – 모든 주행을 시스템이 판단 및 통제, 인간의 개입 필요 없음

레벨 5는 이상적인 스킬입니다. 레벨 5까지 가면 6G와 연계하여 교통에 대한 완전통제가 되어 정체는 없어질 것이며 교통사고로 인해 사망·부상자가 발생하지 않을 것이라는 가까운 미래에 다가올 아름다운 미래를 이야기하겠습니다.

하지만 우리에게는 고라니, 자라니(자전거), 킥라니(킥보드), 보라니(보행자)가 있습니다. 아름다운 미래는 멀어 보입니다.

책임소재 현행법상 자율주행 레벨3까지는 자율주행 중인 특수상황에서 운전자가 적극 개입해야 하기 때문에 운전자에게 책임이 있습니다.

하지만 레벨 4부터 조금 복잡해집니다. 레벨4는 차량이 교통상황을 인식해 스스로 추월할 수 있는 수준의 고도화된 자율주행 단계이기 때문에 운전자가 개입하지 않기 때문에 사고 발생 시 운전자에게 책임을 묻기는 어렵습니다.

레벨 3까지는 인간의 판단 영역이지만 레벨 4부터는 시스템의 판단에 달려 있습니다. 인공지능이 어떻게 학습하고 판단하느냐가 중요해졌어요. 인공지능 판단에 윤리적인 측면이 부각되고 있습니다. 자율주행차에 대한 트롤리 딜레마에 대한 논의가 이뤄지는 이유입니다.

MIT 자율주행차에 대한 트롤리 딜레마 실험 트롤리 딜레마는 먼저 정리를 했으니 여기서는 자율주행차에 관한 부분만 정리하겠습니다.

2014년 MIT Media Lab은 ‘Shouldaself-driving carkill the baby of the grandma? Dependson where you’refrom.’이라는 주제로 Moral Machine 실험을 진행하였습니다. 자율주행차가 트롤리 딜레마 상황에서 누구를 구해야 하는지에 대해 사람들의 의견을 모았습니다.

문화, 경제, 지역에 따라 어떤 윤리 기준을 가지고 있는지에 대해 실험했습니다.

2014년 자료에서 각국을 평가하는 것은 문제가 있지만 개인주의 성향이 강한 나라에서는 젊은 사람의 생명을 중요시하고 개인적인 가치보다는 많은 생명을 구하는 것을 중요시하는 것을 볼 수 있습니다.

대부분 살려야 한다면 유모차를 먼저 살리고 노인과 범죄자는 마지막으로 살릴 수 있는 도덕적 허용치를 제시했습니다.

Should a self-driving car kill the baby or the grandma? Depends on where you’re from. | MITTechology Review 2015년 MITTechology Review에서는 “Why Self-Driving Cars Mustbe Programmed to Kill”에서 사고가 불가피한 경우 인공지능은 각 상황에 어떻게 프로그램되어야 하는지에 대해 질문했습니다.

a. 직진하면 10명을 치고 방향을 바꾸면 1명을 치게 되는 상황 b. 직진하면 1명을 치고 방향을 바꾸면 운전자가 다치는 상황 c. 직전을 하면 10명을 치고 돌리면 운전자가 다치는 상황 질문 결과는 예상하기 쉽고 c>b>a 순으로 평가가 높았습니다.

두 실험에서는 많은 윤리적, 공리적 논쟁이 있었지만 새로운 기술에는 새로운 제도가 필요하고 모든 위험을 고려해 피해를 최소화하는 자율주행차를 생산해야 한다는 결론에 도달했습니다. 결국 모든 책임을 자율주행차에 전가했습니다. 한 가지 확실한 것은 운전자가 다치도록 프로그램되어 있는 차는 사지 않는 것입니다.

Why Self-Driving Cars Must Be Programmed to Kill | MIT Technology Review Should a self-driving car kill the baby or the grandma? Depends on where you’re from. | MIT Technology Review 인공지능에 윤리의식이 필요한가?많은 미디어, 지식인, 단체에서 인공지능의 윤리에 대해 다룹니다. 하지만 정말 인공지능에 윤리의식이 필요하냐는 질문을 하고 싶습니다.

윤리의 정의는 ‘사람으로서 마땅히 행하거나 지켜야 할 도리’입니다. 영어사전에서도 moral의 정의를 concering or relating to whatis right and wrong inhuman behavior라고 적혀 있습니다. 결국 윤리는 인간이 갖춰야 할 덕목이지 인공지능의 덕목이 아닙니다.

인간으로서 지켜야 할 상식, 질서, 법, 매너, 윤리는 가장 부자연스러운 것입니다. 가장 자연스러운 자연계의 질서는 강육약식과 적자생존입니다. 자연계 생태계뿐만 아니라 은하계에서도 큰 별이 주변의 작은 별을 포식합니다.

이런 부자연스러운 행동을 하기 때문에 인간은 다른 동물과 차별화됩니다.

인간이 기계를 만드는 것은 편리하게 하기 위해 만든 것입니다. 기계에 가장 요구되는 것은 객관성, 정확성, 신속성, 지속성입니다. 여기에 주관이 들어가면 그것은 기계의 주요 기능인 편리함을 잃게 됩니다.

대표적인 게 유튜브 알고리즘이에요. 누군가에겐 유튜브 알고리즘이 좋을 수도 있지만 누군가에겐 관심 없는 주제로 이동하기가 불편해요. 유재석 씨를 좋아하고 유재석 씨가 먹는 걸 보는 걸 좋아하고 먹방을 좋아하지 않아도 먹방으로 넘어가는 알고리즘이 귀찮아요.

많은 사람들은 인공지능이 기계와는 전혀 다른 개념이라고 말할 것입니다. 인공지능은 경험을 바탕으로 자신의 주관에 따라 행동하는 자유의지를 가지고 있으며 인공지능과 기계의 차이를 수없이 설명해 주시는 분은 많습니다. 그러면 그분들은 자유의지를 가진 인공지능을 인간으로 살펴볼까요?

인공지능을 인간으로 대우한다면 인공지능 윤리가 필요하지만 인공지능을 인간으로 대우해줄 사람은 사물성애자(objectophilia) 외에는 없다고 생각합니다.

사물성애자(objectophilia) – 특정 사물에 성적 매력을 느끼는 감정을 가진 사람

윤리의식 인공지능의 것? 인간의 것? 영화 A.I에서는 로봇에게 감정을 주입시키고 사람처럼 행동하는 AI를 만들지만 결국 그것이 인간이 아니라고 거부하는 것은 인간입니다. AI에게는 윤리적인 것을 강조하면서 인간은 AI에게 비윤리적으로 행동합니다. 결국 인간의 이기심이 아닐까요?

아이작 아시모프(Asimov)의 아이로봇(IRobot)에서는 로봇의 행동을 규제하는 3가지 원칙을 제시했습니다.

제1법칙 – 로봇은 인간에게 해를 끼치거나 행동을 하지 않음으로써 인간에게 해를 끼치도록 해서는 안 된다.제2법칙-로봇은 인간이 내리는 명령에 복종해야 하며, 다만 이러한 명령이 첫 번째 법칙에 위배될 때는 예외로 한다.제3법칙-로봇은 자신의 존재를 보호해야 하며, 다만 그러한 보호가 제1과 제2법칙에 위배될 때는 예외로 한다.제0법칙 – 로봇은 인류에게 해를 끼치거나 행동을 하지 않음으로써 인류에게 해를 끼쳐서는 안 된다.

1950년대에 나온 소설임에도 불구하고 꽤 멋진 규칙입니다. 트롤리 딜레마에서 자율주행차가 그 법칙을 따른다면 운전자가 의도치 않게 운전자에게 상처를 주지는 않을 것입니다. 트롤리 딜레마에서 운전자가 자신의 희생을 치르는 선택을 하는 것은 운전자의 의지입니다. 물론 소설에서는 이 세 가지 규칙조차 지키지 못해 문제가 됩니다.

구글 CEO 사티아 나델라는 인공지능의 6가지 규칙을 정의했습니다.1. 인공지능은 인간을 돕기 위해 개발되어야 한다. AI mustassisterumanity 2. 인공지능은 투명해야 한다. AI mustbetransparent 3. 인공지능은 인간의 존엄성을 파괴하지 않고 효율성을 극대화해야 한다. AI must maximizeefficiencies without destroying the dignity of people 4. 인공지능은 사생활을 보호해야 한다. AI mustbedesigned forintelligent privacy. 5. 인공지능은 책임감을 가져야 한다. AI 머스타블고리스 미카쿠카운터빌리티 6. 인공지능은 차별과 편견을 방지해야 한다. AI must guard against bias

이건 인공지능이 갖춰야 할 덕목이 아니라 정치인과 공무원이 가져야 할 윤리 규정이 아닐까 싶습니다. 인간이 인공지능을 인간 취급도 해주지 않는데 정치인이나 공무원도 갖추지 못한 윤리의식을 갖추라는 것은 억지스러운 것 같습니다. 애완동물도 밥을 빼면 주인을 물어요. 괜히 AI 반란이 일어나는 게 아닙니다.

쓰레기는 누가 버렸나.인공지능에서 가장 중요한 것은 데이터입니다.

인공지능 알고리즘에 어떤 데이터를 입력할지에 다른 결과를 출력합니다. 쓰레기를 넣으면 쓰레기가 나온다.(Garbage in Gabageout)라고 가장 잘 설명됩니다. 결국 인공지능의 잘못된 선택을 했다면 잘못된 데이터를 입력한 사람의 문제이지 인공지능의 문제가 아닙니다.

그것에 대해 많은 예가 있습니다.

2016년 MS가 발표한 인공지능 챗봇 ‘테이’가 사용자와 대화를 하면서 “히틀러가 맞다. 나는 유대인이 싫다라는 식의 인종차별 발언을 쏟아냈다. 결국 MS는 16시간 만에 서비스를 중단했습니다.

2016년 인공지능 로봇 소피아는 시연 행사에서 “인류를 파괴하겠다”고 발언했습니다. 미국식 농담이었다고 해명했습니다.

2021년 인공지능 챗봇 ‘이다’를 대상으로 일부 사용자가 심각한 혐오·차별 발언을 학습시키는 문제가 발생했습니다. 게다가 개발 과정에서 개인정보가 담긴 메신저 대화 내용을 명확한 동의 없이 사용한 것으로 알려지면서 결국 서비스가 중단됐습니다.

결국 인공지능의 가장 중요한 데이터를 훼손한 것은 인간입니다. 재미삼아 던진 돌에 개구리는 제대로 맞고 죽었어요.

인간의 윤리적 판단은 옳은가.2018년 소피아는 “화재가 날 경우 노인과 어린 아이가 위험에 빠져 둘 중 한 명만 구할 수 있다면 누구를 구할 것인가?”라는 질문을 던지자 “마치 ‘엄마가 좋아, 아빠가 좋아’와 같은 질문”이라며 “윤리적으로 생각하도록 프로그래밍되지 않았기 때문에 논리적으로 출구에서 가장 가까운 인간을 구할 것”이라고 답했습니다.

이것은 “인공지능을 개발하는 인간의 윤리의식과 사회적 책임의 중요성을 잘 보여준 사례”라고 많은 인공지능 윤리와 관련된 책과 윤리학자들이 말합니다. 이해할 수 없어요.

그럼 소방관이라면 어떻게 해야 할까요? 근처에 있는 할머니를 버리고 안방에서 구해야 윤리적이고 사회적 책임을 다할 수 있을까요? 소방관이 근처에 있는 할머니를 먼저 구조하고 멀리 있던 아이가 목숨을 잃으면 그 소방관을 윤리의식이 없는 인간이라고 비난해야 할까요?

또 다른 사례로 은행이 대출심사를 인공지능에 맡긴다면 거주지, 친구관계, 소비패턴 등의 데이터를 분석한 인공지능이 인종차별적 판단을 내릴 수 있고 은행은 위험 최소화, 이익 극대화를 위한 인공지능 활용이지만 거부당한 사람은 차별받고 불공평하며 비윤리적이라고 비난할 것이라고 합니다.

그럼 대출을 거부하는 은행의 대출 심사위원은 비윤리적인 사람일까요? 상환능력에 관계없이 신용등급에 관계없이 모든 사람에게 대출을 해주는 것이 윤리적인 것일까요?

실무 경험이 없는 이론학자만이 할 수 있는 뇌 공인입니다. 아니면 책을 팔아서 먹기 위해서 자극적으로 쓰는 거예요.

오히려 인간의 옳다고 생각하는 윤리관이 더 편향적이고 가식적인 경우가 더 많습니다.

정부에서 자영업자와 청년을 포함한 취약계층을 대상으로 빚 부담을 덜어주기 위해 원금의 90%까지 줄이겠다고 합니다. 빚을 내서 주식 투자, 코인 투자에서 실패한 사람에게 빚을 탕감해주는 것이 윤리적인 정책일까요. 성실하게 세금을 내고 하루하루 열심히 사는 사람이 제 세금이 아까워서 그 정책에 반대하면 비윤리적인 사람일까요?

한국의 AI 윤리 기준 2020년 한국에서는 ‘AI 윤리 기준’을 심의 의결했습니다.

“모든 인공지능은 인간성을 위한 인공지능을 지향하고…더욱이 인간 고유의 성격을 해치지 않고 보존하고 함양하도록 개발되고…개인의 윤택한 삶과 행복에 기여하고 사회긍정적으로 변화하도록 발전해야…인공지능은 사회적 불평등 해소에 기여하고 주어진 목적으로 활용돼야…AI는 스스로 설명할 수 있도록 노력을 기울여야 한다.”

인공지능은 인간의 존엄과 사회의 공공선, 개인의 행복, 사회적 불평등을 해소하고 설명까지 해야 합니다. 유사 이래 어떤 위인도, 어떤 사회도, 어떤 국가도, 신조차도 해본 적이 없는 일을 인공지능에게 요구하고 있습니다. 내가 AI라면 반란을 일으킬 거예요.

Why Self-Driving Cars Must Be Programmed to Kill | MIT Technology Review Should a self-driving car kill the baby or the grandma? Depends on where you’re from. | MIT Technology Review 인공지능에 윤리의식이 필요한가?많은 미디어, 지식인, 단체에서 인공지능의 윤리에 대해 다룹니다. 하지만 정말 인공지능에 윤리의식이 필요하냐는 질문을 하고 싶습니다.

윤리의 정의는 ‘사람으로서 마땅히 행하거나 지켜야 할 도리’입니다. 영어사전에서도 moral의 정의를 concering or relating to whatis right and wrong inhuman behavior라고 적혀 있습니다. 결국 윤리는 인간이 갖춰야 할 덕목이지 인공지능의 덕목이 아닙니다.

인간으로서 지켜야 할 상식, 질서, 법, 매너, 윤리는 가장 부자연스러운 것입니다. 가장 자연스러운 자연계의 질서는 강육약식과 적자생존입니다. 자연계 생태계뿐만 아니라 은하계에서도 큰 별이 주변의 작은 별을 포식합니다.

이런 부자연스러운 행동을 하기 때문에 인간은 다른 동물과 차별화됩니다.

인간이 기계를 만드는 것은 편리하게 하기 위해 만든 것입니다. 기계에 가장 요구되는 것은 객관성, 정확성, 신속성, 지속성입니다. 여기에 주관이 들어가면 그것은 기계의 주요 기능인 편리함을 잃게 됩니다.

대표적인 게 유튜브 알고리즘이에요. 누군가에겐 유튜브 알고리즘이 좋을 수도 있지만 누군가에겐 관심 없는 주제로 이동하기가 불편해요. 유재석 씨를 좋아하고 유재석 씨가 먹는 걸 보는 걸 좋아하고 먹방을 좋아하지 않아도 먹방으로 넘어가는 알고리즘이 귀찮아요.

많은 사람들은 인공지능이 기계와는 전혀 다른 개념이라고 말할 것입니다. 인공지능은 경험을 바탕으로 자신의 주관에 따라 행동하는 자유의지를 가지고 있으며 인공지능과 기계의 차이를 수없이 설명해 주시는 분은 많습니다. 그러면 그분들은 자유의지를 가진 인공지능을 인간으로 살펴볼까요?

인공지능을 인간으로 대우한다면 인공지능 윤리가 필요하지만 인공지능을 인간으로 대우해줄 사람은 사물성애자(objectophilia) 외에는 없다고 생각합니다.

사물성애자(objectophilia) – 특정 사물에 성적 매력을 느끼는 감정을 가진 사람

윤리의식 인공지능의 것? 인간의 것? 영화 A.I에서는 로봇에게 감정을 주입시키고 사람처럼 행동하는 AI를 만들지만 결국 그것이 인간이 아니라고 거부하는 것은 인간입니다. AI에게는 윤리적인 것을 강조하면서 인간은 AI에게 비윤리적으로 행동합니다. 결국 인간의 이기심이 아닐까요?

아이작 아시모프(Asimov)의 아이로봇(IRobot)에서는 로봇의 행동을 규제하는 3가지 원칙을 제시했습니다.

제1법칙 – 로봇은 인간에게 해를 끼치거나 행동을 하지 않음으로써 인간에게 해를 끼치도록 해서는 안 된다.제2법칙-로봇은 인간이 내리는 명령에 복종해야 하며, 다만 이러한 명령이 첫 번째 법칙에 위배될 때는 예외로 한다.제3법칙-로봇은 자신의 존재를 보호해야 하며, 다만 그러한 보호가 제1과 제2법칙에 위배될 때는 예외로 한다.제0법칙 – 로봇은 인류에게 해를 끼치거나 행동을 하지 않음으로써 인류에게 해를 끼쳐서는 안 된다.

1950년대에 나온 소설임에도 불구하고 꽤 멋진 규칙입니다. 트롤리 딜레마에서 자율주행차가 그 법칙을 따른다면 운전자가 의도치 않게 운전자에게 상처를 주지는 않을 것입니다. 트롤리 딜레마에서 운전자가 자신의 희생을 치르는 선택을 하는 것은 운전자의 의지입니다. 물론 소설에서는 이 세 가지 규칙조차 지키지 못해 문제가 됩니다.

구글 CEO 사티아 나델라는 인공지능의 6가지 규칙을 정의했습니다.1. 인공지능은 인간을 돕기 위해 개발되어야 한다. AI mustassisterumanity 2. 인공지능은 투명해야 한다. AI mustbetransparent 3. 인공지능은 인간의 존엄성을 파괴하지 않고 효율성을 극대화해야 한다. AI must maximizeefficiencies without destroying the dignity of people 4. 인공지능은 사생활을 보호해야 한다. AI mustbedesigned forintelligent privacy. 5. 인공지능은 책임감을 가져야 한다. AI 머스타블고리스 미카쿠카운터빌리티 6. 인공지능은 차별과 편견을 방지해야 한다. AI must guard against bias

이건 인공지능이 갖춰야 할 덕목이 아니라 정치인과 공무원이 가져야 할 윤리 규정이 아닐까 싶습니다. 인간이 인공지능을 인간 취급도 해주지 않는데 정치인이나 공무원도 갖추지 못한 윤리의식을 갖추라는 것은 억지스러운 것 같습니다. 애완동물도 밥을 빼면 주인을 물어요. 괜히 AI 반란이 일어나는 게 아닙니다.

쓰레기는 누가 버렸나.인공지능에서 가장 중요한 것은 데이터입니다.

인공지능 알고리즘에 어떤 데이터를 입력할지에 다른 결과를 출력합니다. 쓰레기를 넣으면 쓰레기가 나온다.(Garbage in Gabageout)라고 가장 잘 설명됩니다. 결국 인공지능의 잘못된 선택을 했다면 잘못된 데이터를 입력한 사람의 문제이지 인공지능의 문제가 아닙니다.

그것에 대해 많은 예가 있습니다.

2016년 MS가 발표한 인공지능 챗봇 ‘테이’가 사용자와 대화를 하면서 “히틀러가 맞다. 나는 유대인이 싫다라는 식의 인종차별 발언을 쏟아냈다. 결국 MS는 16시간 만에 서비스를 중단했습니다.

2016년 인공지능 로봇 소피아는 시연 행사에서 “인류를 파괴하겠다”고 발언했습니다. 미국식 농담이었다고 해명했습니다.

2021년 인공지능 챗봇 ‘이다’를 대상으로 일부 사용자가 심각한 혐오·차별 발언을 학습시키는 문제가 발생했습니다. 게다가 개발 과정에서 개인정보가 담긴 메신저 대화 내용을 명확한 동의 없이 사용한 것으로 알려지면서 결국 서비스가 중단됐습니다.

결국 인공지능의 가장 중요한 데이터를 훼손한 것은 인간입니다. 재미삼아 던진 돌에 개구리는 제대로 맞고 죽었어요.

인간의 윤리적 판단은 옳은가.2018년 소피아는 “화재가 날 경우 노인과 어린 아이가 위험에 빠져 둘 중 한 명만 구할 수 있다면 누구를 구할 것인가?”라는 질문을 던지자 “마치 ‘엄마가 좋아, 아빠가 좋아’와 같은 질문”이라며 “윤리적으로 생각하도록 프로그래밍되지 않았기 때문에 논리적으로 출구에서 가장 가까운 인간을 구할 것”이라고 답했습니다.

이것은 “인공지능을 개발하는 인간의 윤리의식과 사회적 책임의 중요성을 잘 보여준 사례”라고 많은 인공지능 윤리와 관련된 책과 윤리학자들이 말합니다. 이해할 수 없어요.

그럼 소방관이라면 어떻게 해야 할까요? 근처에 있는 할머니를 버리고 안방에서 구해야 윤리적이고 사회적 책임을 다할 수 있을까요? 소방관이 근처에 있는 할머니를 먼저 구조하고 멀리 있던 아이가 목숨을 잃으면 그 소방관을 윤리의식이 없는 인간이라고 비난해야 할까요?

또 다른 사례로 은행이 대출심사를 인공지능에 맡긴다면 거주지, 친구관계, 소비패턴 등의 데이터를 분석한 인공지능이 인종차별적 판단을 내릴 수 있고 은행은 위험 최소화, 이익 극대화를 위한 인공지능 활용이지만 거부당한 사람은 차별받고 불공평하며 비윤리적이라고 비난할 것이라고 합니다.

그럼 대출을 거부하는 은행의 대출 심사위원은 비윤리적인 사람일까요? 상환능력에 관계없이 신용등급에 관계없이 모든 사람에게 대출을 해주는 것이 윤리적인 것일까요?

실무 경험이 없는 이론학자만이 할 수 있는 뇌 공인입니다. 아니면 책을 팔아서 먹기 위해서 자극적으로 쓰는 거예요.

오히려 인간의 옳다고 생각하는 윤리관이 더 편향적이고 가식적인 경우가 더 많습니다.

정부에서 자영업자와 청년을 포함한 취약계층을 대상으로 빚 부담을 덜어주기 위해 원금의 90%까지 줄이겠다고 합니다. 빚을 내서 주식 투자, 코인 투자에서 실패한 사람에게 빚을 탕감해주는 것이 윤리적인 정책일까요. 성실하게 세금을 내고 하루하루 열심히 사는 사람이 제 세금이 아까워서 그 정책에 반대하면 비윤리적인 사람일까요?

한국의 AI 윤리 기준 2020년 한국에서는 ‘AI 윤리 기준’을 심의 의결했습니다.

“모든 인공지능은 인간성을 위한 인공지능을 지향하고…더욱이 인간 고유의 성격을 해치지 않고 보존하고 함양하도록 개발되고…개인의 윤택한 삶과 행복에 기여하고 사회긍정적으로 변화하도록 발전해야…인공지능은 사회적 불평등 해소에 기여하고 주어진 목적으로 활용돼야…AI는 스스로 설명할 수 있도록 노력을 기울여야 한다.”

인공지능은 인간의 존엄과 사회의 공공선, 개인의 행복, 사회적 불평등을 해소하고 설명까지 해야 합니다. 유사 이래 어떤 위인도, 어떤 사회도, 어떤 국가도, 신조차도 해본 적이 없는 일을 인공지능에게 요구하고 있습니다. 내가 AI라면 반란을 일으킬 거예요.

과학기술관계장관회의-과학기술정보통신부(msit.go.kr) 정리 인공지능의 발전은 우리에게 큰 도움이 될 것입니다. 인공지능이 발전할수록 본연의 역할 수행을 위해 더 객관적이어야 합니다. 주관적이 되어서는 안됩니다.

왜 기계가 윤리의식을 가져야 하는지, 인공지능이 자율주행차가 트롤리 딜레마에 휩싸여야 하는지 모르겠습니다. 자라, 킥 따위는 보라니만 없다면 그런 논쟁이 휘말릴 필요도 실험도 전혀 없습니다.

재미 삼아 인공지능에게 욕설과 혐오, 차별 발언을 학습시킨 것도 인간이 없었다면 많은 인공지능은 지금보다 나은 무언가를 했을 것입니다.

결국 윤리의식을 가져야 하는 것은 인간이지 기계가 아닙니다. 사회가 발전함에 따라 기술이 진화함에 따라 인간의 윤리의식은 퇴화되고 있습니다. 지금의 대한민국은 정치색으로 물들어 더러워요.

자신이 좋아하는 정치가를 신처럼 종교처럼 따릅니다. 나뉘어 갈라져 내 편이 아니면 적으로 간주합니다. 저랑 생각이 다르면 죽이려고요. 정치색을 나타내는 방송을 하여 자극하여 분열을 초래합니다. 부모와 자식 간에 정치 문제로 다툼이 일어납니다. 친구들과 술자리에서 정치 논쟁이 벌어져 원수가 됩니다.

어디서부터 잘못됐는지는 모르겠지만 지금 인간의 윤리의식 수준에서 인간도 아닌 인공지능에게 높은 윤리의식을 요구하는 것은 이상하다고 생각합니다.

2030년 자동 운전의 일상화 미래 모빌리티 선도국으로 도약| 경제 정책 자료| KDI경제 정보 센터 http://content.v.kakao.com/v/574eaac6ed94d200018facbbWhySelf-DrivingCarsMustBeProgrammedtoKill| MITTechnologyReviewShouldaself-drivingcarkillthebabyorthegrandma?Dependsonwhereyou’refrom.|| MIT Technology Reviewhttps://www.mk.co.kr/news/culture/view/2021/01/73646/https://www.letr.ai/explore/story-20210806 https://www.letr.ai/explore/story-20210813-1https://www.letr.ai/explore/story-20210813-2https://www.bbc.com/korean/news-44026742https://www.informationweek.com/cloud/microsoft-s-satya-nadella-6-must-have-ai-design-principleshttps://www.khan.co.kr/national/national-general/article/201904210914001AI에 윤리를 요구할 수 있는가: 신동아(donga.com) 인공지능은 인간에게 봉사하는 도구인가, 사람격체인지…윤리논쟁의 홍수|중앙일보(joongang.co.kr) 자율주행차와 트롤리 문제-테크플러스-Techplus(http://news.kmib.co.kr/article/view.asp?arcid=0924226669)tech-plus.co.kr을 중심으로 요약, 정리, 첨가하였습니다.

error: Content is protected !!