AI(인공지능)의 윤리학
영화 '아이언맨'의 자비스처럼 AI(인공지능)가 인간의 머리를 완벽히 대체하는 AGI(일반인공지능)의 시대가 멀지 않았다. 그 전에 이미 운전과 전쟁은 AI의 손에 넘어갈 공산이 크다. 과연 우린 AI에게 목숨을 맡길 준비가 돼 있나. AI에 얽힌 윤리적 문제를 짚고 해법을 찾아보자.
영화 '아이언맨'의 자비스처럼 AI(인공지능)가 인간의 머리를 완벽히 대체하는 AGI(일반인공지능)의 시대가 멀지 않았다. 그 전에 이미 운전과 전쟁은 AI의 손에 넘어갈 공산이 크다. 과연 우린 AI에게 목숨을 맡길 준비가 돼 있나. AI에 얽힌 윤리적 문제를 짚고 해법을 찾아보자.
총 5 건
#1. 러시아군은 올해 우크라이나 돈바스 지역에 인간의 개입 없이 자율적으로 전투하는 무인전투차량 '마르케르'(Marker)를 투입했다. 러시아 측은 마르케스가 신경망 알고리즘으로 데이터를 처리하는 자율이동 기능과 적 차량의 이미지를 분석하는 AI(인공지능) 시스템을 이용해 적을 감지하고 공격할 수 있다고 주장했다. AI가 스스로 판단해 인간의 목숨을 빼앗는 시대에 우린 살고 있다. #2. 현대자동차는 올 하반기 출시할 SUV(스포츠유틸리티차) 'EV9', 제네시스 'G90'에 자율주행 3단계 수준의 기술을 탑재할 것으로 알려졌다. 이미 메르세데스 벤츠는 3단계 자율주행 시스템을 독일과 미국에서 승인받았다. 3단계 자율주행은 고속도로 등 특정한 환경에서 AI 시스템이 운전 주체가 되는 '조건부 자율주행'이다. 미국 샌프란시스코에서 등 해외 일부 지역에선 제한된 조건 아래 주행과 관련된 모든 판단을 자동차가 알아서 하는 4단계 자율주행을 시험 중이다. 고속 주행 중 어린이나 노약자가
"우리가 AI(인공지능)하면 터미네이터의 스카이넷을 떠올리곤 했는데, 사실은 아이언맨의 자비스에 더 가깝다고 볼 수 있습니다." 윤두현 국민의힘 의원은 지난 25일 머니투데이 더300(the300)과 만나 AI와 사람의 관계를 영화를 예로 들어 설명했다. 스카이넷은 미국 할리우드 블록버스터 영화 '터미네이터' 시리즈에서 핵전쟁을 일으켜 인류와 대립하는 적으로 묘사되는 AI다. 반면 마블의 영화 '아이언맨'에 등장하는 'AI 비서' 자비스는 주인공 토니 스타크를 돕는 동료다. AI 기술이 커다란 경제적 가치를 갖고 있을 뿐 아니라 인간의 사소한 삶까지 더 윤택하게 만드는 축복이 될 수 있다는 뜻이다. 윤 의원이 지난해 12월 '인공지능산업 육성 및 신뢰 확보에 관한 법률안'(이하 AI산업 육성법)을 발의한 것은 이런 인식에서다. 국회 과학기술정보방송통신위원회(과방위) 소속의 윤 의원은 AI산업의 가능성에 주목하고 있다. 그는 "챗GPT가 출시된 후 40일 만에 이용자수 1000만 명을
"완전한 자율주행(5단계) 시대가 오면 자동차가 스스로 경로를 선택할 겁니다. 만약 인명사고를 피할 수 없는 상황이 생긴다면 자동차는 운전자와 행인, 둘 중 누구를 살려야 할까요?" 지난 2월 '인공지능책임법 제정안(이하 AI 책임법)'을 대표 발의한 황희 더불어민주당 의원은 머니투데이 the300과의 인터뷰에서 이런 질문을 던졌다. 그는 "AI가 내리는 어떤 선택을 최선이라고 할 수 있을까를 고민하게 됐다"고 법안 발의에 나선 이유를 설명했다. 황 의원은 챗GPT 등 AI 기술이 예상보다 빠른 속도로 일상을 파고들고 있다고 진단했다. 그는 "챗GPT는 난이도 높은 학술논문과 에세이, 시, 보고서 등을 단숨에 써내고 소프트웨어 프로그램 코딩까지 수행해내고 있다"며 "AI는 이미 세계인의 일상 깊숙이 침투해 디지털 대전환의 시대를 이끌고 있다"고 했다. 이어 "자연스럽게 AI 윤리와 책임을 고민하게 됐고 선제적으로 제도를 마련해야 한다는 생각에 법안을 발의했다"고 말했다. 최근 국회
챗GPT가 촉발한 초거대 AI(인공지능) 경쟁은 머지않은 미래 국가 경제·산업의 흥망을 좌우할 정도로 영향력이 크다는 게 우리 정부의 인식이다. 다만 기술 발전이 초래하는 사회·윤리적 변화의 대응 역시 못지 않은 핵심 과제다. 이에 과학기술정보통신부는 지난 14일 발표한 '초거대 AI 경쟁력 강화 방안'에서 "'디지털 신질서' 확립으로 범국가 AI 혁신 제도·문화 정착에 힘쓰겠다"는 목표를 제시했다. 앞서 과기정통부는 2020년 12월 'AI 윤리기준', 2021년 5월 '신뢰할 수 있는 AI 실현전략'을 발표하는 등 사람 중심의 AI 구현을 위한 정책 방안을 수립해 왔다. 정보통신정책연구원(KISDI)과 함께 마련한 'AI 윤리기준'은 바람직한 AI 개발·활용 방향을 제시하는데 주안점을 뒀으며 △AI는 사람 중심이어야 한다 △AI 개발과 활용 과정에서 인간의 존엄성·사회의 공공선·기술의 합목적성 등 3대 원칙을 지켜야 한다는 내용이 핵심이다. 또 정부, 공공기관, 기업, AI 이용
급변 상황에서 군 통수권자인 대통령과 군 수뇌부의 역할 비중, 표준적 선호경향 등을 고려해 '치명적 자율 무기'(Lethal Autonomous Weapons·LAWS)를 가동하는 군사용 AI(인공지능) 운용안이 우리 육군의 AI 연구 보고서에 등장했다. 지난해 2월부터 7월까지 군의 민간 발주를 거쳐 작성된 이 보고서에는 LAWS에 '약한 AI 윤리적 판단' 체계를 접목하면 대통령 유고 등의 사태에 대비할 수 있다는 주장이 실렸다. 연구진은 "유사시 의사결정을 최단시간 내 할 수 있는 것이 AI의 장점"이라고 썼다. △기획의 견실성 △구현의 효율성 △작동의 지속성 △데이터의 진실성 등 안전성 확보 목적의 군사용 AI 대상 윤리적 평가·검증 요소도 실렸다. AI를 둘러싼 군비경쟁과 윤리적 기준 수립이라는 세계 각군의 고민에서 우리 군도 자유로울 수 없음을 보여주는 대목이다. 군 당국자는 용역 결과에 대해 "정책 참고 자료일 뿐 적용 계획은 없다"고 했다. 다만 AI가 지휘통제라는 고