기업조회

보고서

보고서

보고서 기본정보

인공지능 시대의 윤리적 쟁점 및 대응 방안

보고서 개요
기관명 NDSL
공개여부
사업명
과제명(한글)
과제명(영어)
과제고유번호
보고서유형 report
발행국가
언어
발행년월 2020-04-20
과제시작년도

보고서 개요

보고서 개요
주관연구기관
연구책임자 이동진
주관부처
사업관리기관
내용
목차
초록 1. 서론 인공지능(artificial intelligence, AI)은 미래 사회의 핵심기술로서, 의료 및 금융산업에서부터 자율주행, 챗봇, 개인 도우미에 이르기까지 사회의 모든 측면에 점점 퍼져나가고 있다[1]. AI는 경제, 사회복지, 인권을 향상시켜 새로운 기술의 혜택을 누릴 수 있도록 도와줄 수도 있으나, 오용되거나 잠재적으로 해로운 방식으로 행동하여 다양한 윤리적 문제를 야기할 수 있다[1]. 예를 들어, 자율주행차의 트롤리 딜레마(trolley dilemma)는 위급한 상황에 누구를 살릴 것인가를 탐구하는 대표적 윤리 문제로서, 어린이를 포함한 승객 3명을 태우고 가던 자율주행차가 전방에서 횡단보도를 무시하고 횡단보도를 건너고 있는 노인들을 발견했을 때 노인들과 승객들 중에 어떤 생명을 구하도록 설계할 것인지에 대한 문제이다[2]. 이외에도 AI의 신뢰성 문제(알고리즘의 조작 가능성 및 의사결정의 편향성), 인간과 AI의 상호작용 시 인지, AI의 일자리 대체 문제, AI의 개인 데이터 수집과 관련한 다양한 윤리적 쟁점들이 있다. AI의 부작용을 모두 막는 건 사실상 불가능하고, AI의 부작용을 최소화할 수 있도록 윤리적 대응체계 구축 및 산업별, 서비스별 윤리 이슈에 대한 구체적이고 탄력적인 기술적/법 제도적 대응이 요구된다[2]. 유럽위원회(European Commission), OECD, 영국, 싱가포르, 대한민국 등의 국가 및 국제기구는 정책 문서 초안을 의무화하는 AI에 관한 특별 전문가위원회를 개발함으로써 이러한 우려에 대응했다[4]. 이들 위원회는 AI 윤리에 관한 보고서 및 지침 문서를 작성했거나 보고하였다. 민간부문, 특히 비즈니스를 위해 AI에 의존하는 기업들도 비슷한 노력을 기울이고 있다. 2018년에만 Google 및 SAP와 같은 회사가 AI 지침 및 원칙을 공개했다. ACM(Association of Computing Machinery), Access Now 및 국제 앰네스티와 같은 전문 협회 및 비영리단체에서도 선언 및 권장 사항을 발표했다. 윤리적 AI에 대한 보고서 및 지침 문서는 비법률 정책도구로서 법적 구속력이 없지만 설득력이 있고, 입법 규범에 필적하는 특정 분야의 의사결정을 지원하고 실질적인 영향을 미치는 것으로 확인되었다[4]. 실제로 AI 원칙과 정책을 발행하는 데 있어 다양한 이해관계자들이 강렬한 노력을 기울이는 것은 AI 윤리적 지도성뿐만 아니라 AI 윤리를 형성하려는 강한 관심을 보여주기에 주목할 만하다. 2019년 9월까지 약 84개의 AI 윤리 가이드라인이 기업, 정부기관, 대학/연구소, 비영리조직 등을 통해 발표되었고, 이 중 88%는 2016년 이후에 출판되었다[4]. 본고에서는 발표된 AI 윤리 가이드라인의 공통된 윤리 지침들에 대해 살펴보고, 기술적/법 제도적 대응 방안에 대해 고찰해보고자 한다. ** 원문은 파일 다운받기를 해주세요 :-)
원문URL http://click.ndsl.kr/servlet/OpenAPIDetailView?keyValue=03553784&target=REPORT&cn=KOSEN000000000001552
첨부파일

추가정보

추가정보
과학기술표준분류
ICT 기술분류
주제어 (키워드)