SECTION 3 인공지능 공공정책을 위한 제언 PROSPECTS AND RECOMMENDATIONS FOR AI PUBLIC POLICY

 

AI 의 목적은 사회를 위해 새로운 가치를 만들어야 하는 것이어야 합니다. 보고서의 정책 제언은 이 목표에 따라 만들어졌습니다. 미국 산업현황을 볼때 AI 가 초래할 충격을 받아들이기 위해 새로운 법령과 정책이 필요해 보입니다. 더 강력하게 규제하는 게 아니라 정책은 혁신을 장려하고 전문가를 만들어 내고, 회사와 시민들의 책임을 강화하는 쪽으로 가야합니다. 이는 장차 AI 기술이 가져올 경제적인 성과를 어떻게 분배할 것인가에 대한 논의도 요구됩니다.

 

AI 정책 현재와 미래 AI POLICY, NOW AND IN THE FUTURE

 

역사적으로 인간은 새로운 기술에 잘 적응하면서 지내왔습니다. 이 보고서는 AI 기술 역시 일부 우려와 달리 지금 살고 있는 사회에 점진적으로 영향을 줄 것이라고 예상하고 있습니다. 물론 기술 자체는,  컴퓨팅 파워와 같은 것은 순식간에 놀라운 수준으로 발전할 수 있습니다. 사람들이 AI 기술을 쉽게 잘 쓰게 하게 하면 순조로울 수 있지만 테슬라의 자율주행차 사고와 같은 예상하지 못한 오류가 생긴다면 대단한 저항이 생길 수도 있습니다. 따라서 AI 는 사람들이 쉽게 이해할 수 있도록 설계되어야 합니다. 그래야 사람들이 인공지능을 신뢰할 수 있고 오류가 갖고 오는 피해도 줄일 수 있습니다.

또한 어떤 일들을 인공지능에게 맡길 것인가도 고민해야 합니다. 전자계산기를 학교에서 사용할 수 있으면서부터 학생들의 계산 능력이 떨어지긴 했지만 오히려 다른 중요하고 복잡한 능력(추론과 같은)에 집중하게 해주기도 합니다.

어린이들이 특히 인공지능에 자연스럽게 노출되면서 세대간의 격차가 생길 수도 있습니다. 또한 인공지능을 어떻게 공평하게 접근할 수 있느냐에 대한 불공정성이 생길 수 있습니다. 예를 들면, 언어번역 시스템이 특정 계층의 말을 잘 알아듣지 못하게 설계된다면 소외 계층이 발생할 수 있습니다. 혹은 인공지능이 영어만 잘 듣고 이해한다면(지금 그렇게 될 가능성이 상당히 높습니다만) 다른 언어 사용자들은 그 기회가 적어질 수 있습니다.

더우기 인공지능은 그 설계자에 따라서 일종의 편향을 가질 수 있습니다. 젊은 백인 남자가 언어이해 시스템을 개발할 때 자칫 타 인종이나, 여성, 노인의 말을 잘 이해하지 못하는 결과가 나올 수도 있고, 사회에 만연한 편견들이 인공지능의 의사결정에 그대로 영향을 줄 수도 있습니다. 장차 누구에게 얼마나 대출을 할 것인지 또는 누구를 가석방할 것인지를  인공지능이 결정하게 된다면, 애초의 설계자에 따라서 사회적인 편견이 반영될 가능성이 상당히 높아집니다.

개인화된 서비스 또는 사회안전의 이유로 인공지능이 개개인들을 끊임없이 감시하게 된다면 사생활보호 문제도 심각하게 대두될 것입니다. 인공지능은 많은 경우 사회 구성원 모두의 데이터를 기반으로 만들어질 것입니다. 하지만 학습된 인공지능이 만들어낼 부가가치를 어떻게 사회에 다시 나누어 줄 것인가는 요원해보입니다. 특정계층 또는 회사가 새롭게 창출된 모든 부를 독차지할 가능성이 높아보입니다.

 

이에 따라 연구위원회는 아래 3 가지 정책제언을 합니다.

1. 정부 모든 조직에 AI 전문가들이 참여할 수 있도록 하자.

효과적인 거버넌스를 위해서는 인공지능기술과 사회가치를 이해하고 분석하는 더 많은 전문가가 필요하다.

전문가가 부족하면 자칫 정부가 새로운 기회를 놓칠 수도 있고 또는 아직 성숙되지 않은 기술을 함부러 도입해서 사회적으로 문제를 발생시킬 수도 있습니다.

 

2. 인공지능시스템이 가져올 형평성, 안전, 사생활 그리고 사회적 충격에 대한 연구를 보장하라.

특허와 관련된 연방 법들이 모호해서 인공지능시스템이 어떻게 학자들이나 저널리스트들, 제3자에 의해 재구성 reverse engineered 되고, 검토될 수 있는지 불분명합니다.  제3자에 의한 검토는 윤리성,임성 확보라는 측면에서 아주 중요합니다.

개인적으로 이부분, 재구성 가능성이 인공지능 시스템과 관련해서 주목해야 할 부분이라고 생각합니다. 왜냐하면 사실상 인공지능은 외부에서 제3자가 재구성하기가 불가능해보이기 때문입니다. 자동차나 반도체와 같은 물체들은 복잡하기는 하지만 차분하게 분해해보면 그 구조를 짐작할 수 있습니다. 대부분의 소프트웨어들도 입력과 출력을 관찰하면서 기능을 추측할 수 있습니다. 하지만 인공지능은 그 결과를 만들어 내는 원인을 역추적하기가 사실상 불가능합니다. 심지어 인공지능 시스템 설계자조차도 왜 그런 결과가 나오는지 알기 어렵습니다. 알파고가 최고수처럼 착수를 하다가도 간혹 초보자처럼 둘 때 왜 그런지 알기 어려운 것도 그와 비슷합니다. 또한 미래의 인공지능은 네트워크에 분산되어 있을 가능성이 높습니다. 아이폰을 사서 시리 Siri 를 이용하지만 시리가 막상 아이폰 안에 존재하는 것은 아닙니다. 네트워크 또는 클라우드 Cloud 에 존재하죠. 이런 이유로 인공지능 분야는 과거 산업시대에서 후진국 내지는 후발 회사가 선진 기술을 받아 들이는 것처럼 선두주자를 따라하기는 어려워보입니다. 즉 한번 격차가 생기면 다시는 뒤집거나 줄이지 못하게 되는거죠, 오히려 격차가 벌어질 뿐입니다. 그래서 많은 회사들이 많은 국가들이 인공지능에 많은 투자를 하고 있습니다.

 

3. 인공지능의 사회적 충격에 대한 학제간 연구를 위해 공공/민간 투자를 늘려라.

AI 에 대한 기초연구에서부터 평가방법, 안전, 사생활, 형평성에 이르기까지 다양한 분야에는 이런 질문들이 포함될 수 있습니다. 자율주행차가 사고가 나거나 지능의료 기기가 고장났을 때 누가 책임을 지는가? AI 기기가 불법적으로 차별을 하지 않게 하기 위해서는 어떻게 해야 하는가? AI 기술로 얻은 과실은 어떻게 나누는가? AI 때문에 직업을 잃어버린 사람들은 어떻게 보호해야 하는가?

AI 기술이 점차 산업에서부터 일반 소비재에 이르기까지 확대되면 정부당국은 인공지능혁신에 적응을 해야 할 것이며 심지어 완전히 변화해야 할 수도 있습니다.

여전히 미국에서는 영역별로 나눠져서 여러 당국들이 관여하고 있습니다. 의료분야에 사용될 인공지능기기 관련해서는 FDA (Food and Drug Administration)가 어떤 기기로 제한할 것인지 어떤 표준화된 소프트웨어를 사용할 것인지를  관할하고 드론 drone 에 관해서는 FAA (Federal Aviation Agency)가, 소비재 관련해서는 FTC (Federal Trade Commission) 가 관여하고 있고 금융분야는 SEC (Security Exchange Commission) 가 관할하고 있습니다.

오바마 정부의 대통령 정책 지시 (PPD, Presidential Policy Directive) 에서는 국가와 국민의 안녕에 광범위하게 영향을 줄 수 있는 기반 산업을 Critical Infrastructure 로 규정하고 있어서, 인공지능도 여기에 포함될 수도 있습니다. 구글, 페이스북 그리고 아마존 같은 회사들은 실질적으로는 큰 영향력을 주고 있지만 회사 혁신을 저해한다는 핑계 또는 로비로 여기에서는 제외되어 있습니다.

FDA 는 의료 분야 소프트웨어 엔지니어의 역량을 제한하는 방법으로 관련 분야를 보호하려고 하지만, 요즘은 많은 공개 소프트웨어가 사용되고 있기 때문에 좀더 현실적인 법령이 필요해보입니다. 혁신을 방해하지 않으면서 사회적인 위험을 최소화하는 묘안이 필요합니다.

 

정책적 법적 고려 사항 Policy and legal considerations

 

AI 가 법/제도에 어떻게 영향을 줄 것인지를 상세하게 살피는 것은 이 보고서의 범위를 벗어나지만, 장차 AI 때문에 많은 법령이 수정될 필요가 있어 보입니다. 어떻게 법과 정책이 AI를 받아 들일 것인가는 사회, 문화, 경제 등과 연결될 것이며 사법부의 판단에 따라 달라질 것입니다.

미국 사법제도는 관습법, 연방, 주정부 그리고 지방정부의 헌법과 조례로 복합적으로 구성되어 있습니다. 예를 들어, 네바다 주정부는 자율주행차를 폭넓게 허용하면서 교통국에 운행 규정을 정비하도록 요구했습니다. 또한 연방교통안정국에서는 탑승자가 아닌 자율주행차 자체를 ‘운전자’로 간주하기로 결정했습니다. 이런 것들은 자동차 제조사가 자율주행모드를 어떻게 설계해야 하는지에 영향을 주고 있어서 어떤 자동차는 자율주행모드 중에는 핸들에 손가락이라도 올려둬야 하게 만들기도 합니다. 이렇게 함으로써 최종적으로 운전자에게 책임을 돌릴 수 있기 때문입니다. 이렇게 했음에도 불구하고 테슬라 자율주행차는 사고를 피하지 못했습니다.

자율주행차는 앞으로 만나게 될 인공지능의 여러 현실 중에 한 예에 불과합니다. 세금 컨설팅, 주식 자동 거래 또는 의료진단 등의 영역에서는 관련 환경과 법령에 따라 법적 대응이 달라질 것입니다. 현재 미국 상황을 고려했을 때 단기간에 AI 를 포괄하는 법령이 나오지는 않겠지만 여러분야에서 논란이 발생할 것으로 예상됩니다.

 

Privacy

개인정보들은 인공지능이 의사결정을 하고 예측할 때 자연스럽게 노출되게 됩니다. 인공지능이 과거의 행동 패턴으로 미래를 예측하려할 때 문제가 생길 수 있습니다. 개개인의 신용위험도를 평가하는 시스템이나 가석방을 허가할 때 재범률을 예측하는 알고리즘에서 인공지능이 인종이나 성적지향 같은 개인정보를 사용하지 않을거라는 보장을 어떻게 하는지가 큰 문제입니다. 특히 직접적으로 사용되지 않는다고 하더라도 우편번호 같은 정보로 개인정보를 유추한다면 사실상 막기가 어려워 보입니다. 이런 위험성에도 불구하고 어쩌면 인공지능이 사람보다 덜 편견을 갖고 판단할 수도 있을 것이라는 것이 이보고서의 주장이기도 합니다.

 

Innovation policy

인터넷 초창기에는 관련 법과 규정이 혁신을 유도하는 쪽이었지만 최근에 오히려 소프트웨어 회사들이 공개 또는 공짜 소프트웨어로 가는 것을 거부하고 특허 그물로 혁신을 방해하고 있는 듯 합니다. 협력을 유도하면서도 혁신에 대한 인센티브가 충분히 갈 수 있는 정책이 요구됩니다.

 

Liability (civil)

인공지능이 점차 실생활로 들어오면서 AI 로 인한 피해에 대한 책임소재 문제가 많이 발생할 것입니다. AI 가 제조자가 예상하지 못한 방식으로 작동할 수도 있다는 것은, 예견된 상해에 대해서만 보상한다는 보상법과 충돌이 생길 수 있습니다. AI 기기로 인해 문제가 생겼을 때 그 기기를 작동시킨 사람에게 책임을 물어야 하는지 그 기기를 만든 제조사에게 물어야 하는지가 아주 복잡할 수 있습니다. AI 기기에 사람의 개입이 점점 적어진다면 점차 제조사 책임 보상제도로 가야 할 듯합니다. 자동차에서 기기 결함으로 생겼을 수도 있는 사고에 대해서 미국과 한국은 서로 다른 증명 절차를 가지고 있는 상황에서 인공지능 기기의 책임 소재를 고민하는 것이 너무 이른 것이 아닌가 싶기도 합니다.

 

Liability (criminal)

형법에서는 그 행위에 의도가 있었는지 아닌지에 따라서 크게 다르게 취급됩니다. 인공지능기기가 늘어나고 인간의 개입이 점차 줄어드는 상황에서 발생되는 범죄행위에서 만약 AI 기기가 사용되었다면 그 책임소재를 어떻게 규정해야 할지 모호합니다. 소유자인 인간을 행복하게 해주라는 명령을 들은 로봇이 스스로 판단하여 물건을 훔치거나 다른 사람을 다치게 했다면 누구에게 책임을 물어야 할까요?

 

Agency

책임소재문제는 인공지능이 개인이나 회사를 대신해서 행동을 했을 때에도 발생할 수 있습니다. 인공지능이 대행자로서 행동할 수 있는 상황과 그에 따른 책임소재를 일일이 정비해야할 필요가 있습니다.

 

Certification

앞으로 인공지능이 사람대신 할 수 일들 중에서  운전, 자문, 수술 등과 같이  자격증이 필요한 분야가 있습니다. 이 경우 인공지능에게는 어떻게 자격증을 따게 할 것인지 혹은 자격증을 따게 해야 하는지를 결정해야 합니다. 한국정부에서도 금융분야의 인공지능을 도입하기 위해 로보어드바이저를 인증하겠다고 발표했고 현재 절차가 진행 중에 있습니다. 청소로봇을 위한 별도의 인증절차는 없는 것 같지만 향후 수술로봇, 법률로봇들도 사법고시 또는 의사면허시험을 봐야 할까요?

 

Labor

인공지능이 어떤 직업을 없애고 어떤 새로운 직업을 만들어낼지 아직 명확하지는 않지만 많은 변화가 예상됩니다. 그리고 그 변화는 모두에게 비슷하게 다가 오지는 않을 것입니다. 어떤 직업은 피해를 볼 것이고 어떤 기술을 쓸모없어질 것입니다. 정부의 정책과 회사에서 조직을 구성하는 방법, 그리고 개인들이 새로운 기술을 배우기 위해 투자하는 것에 따라 달라집니다. 세계에서 가장 큰 노동법 전문 회사가 인공지능과 로봇에 대해 꾸준하게 연구하는 이유이기도 합니다.

 

Taxation

인공지능 로봇이 늘어나면서 고용의 형태가 바뀌면 연방, 주정부의 수입원이 달라질 수 있습니다. 이럴 경우 정부의 재원을 위해 AI 기기에도 세금을 부과해야 하는지 의문이 됩니다. 자율주행기술이 발전하게 된다면 지방정부들은 주차단속이나 교통법규위반 단속으로 기대할 수 있는 세원을 잃어버릴 수 있습니다.

 

Politics

선전과 선거가 중요한 정치 영역에서도 인공지능은 벌써부터 역할을 하고 있습니다. 지역주민 흉내를 내는 로봇들이 선거구 개편이나 투표에 영향을 주려고 시도하고 있습니다. 소셜미디어에는 소위 봇 bot 들이 활동하고 있어서 여론을 호도하고 있습니다. 정확한 예측모델들은 개개인의 정보를 최대한 이용해서 선거에 유리한 국면을 만들려고 합니다.

앞으로 법률과 정책 분야에서 생길 수 있는 문제는 너무나 많을 수 있기 때문에 지금 할 수 있는 최선의 방법은 정책입안자들이 인공지능과 관련된 모든 분야에 대해서 전문가들을 포진시켜서 생길 수 있는 문제를 일일이 연구 조사하는 것입니다. 민간과 공공영역에서 개발된 기술들과 표준을 이해하고 필요하다면 법령을 정비할 수 있는 전문가가 많이 필요합니다.

 

미래를 위한 가이드라인 Guidelines for the future

 

AI 기술이 가져다 올 심각한 변화를 맞이하면 좀더 다양하고 강력한 규정이 불기피해 보입니다. 인공지능을 잘못 이해해서 기술에 대해 반감이 커진다면  AI 가 자져다 줄 수 있는 효과가 감소될 수 있고, 혁신을 방해하는 법령들도 생산성을 떨어뜨릴 것입니다.

디지털 기술에 대한 법령을 정비하면서 얻은 교훈들이 도움이 될 수 있습니다. 개인정보에 대한 유럽과 미국의 법규를 비교해보면, 스페인과 프랑스는 아주 엄격하고 상세한 규정을 회사에 요구했지만 항상 준수하기를 요구해서 오히려 회사의 생산성이나 혁신을 떨어뜨리고 말았습니다. 미국과 독일은 다소 모호하지만 엄격한 투명성과 책임을 회사에 주고 회사가 책임지고 개인정보보호를 하도록 해서 오히려 효과를 보고 있습니다. (이 부분은 좀더 비교 연구의 구체적인 자료가 필요해보입니다)

인공지능에서도 법규준수를 강요하기 보다는 회사 내/외부의 투명성을 높임으로써 혁신과 개인정보를 모두 만족시킬 수 있을 것으로 보입니다. 인공지능이 도시에 적용될 때에는 더 큰 어려움이 예상됩니다. 정책당국은 인공지능이 가져다 올 혜택을 공정하게 나누고 발전을 민주적으로 강화할 수 있는가로 평가되어져야 할 것입니다. 또한 인공지능의 영향이 한번에 다 파악되지 않기 때문에 계속해서 관심을 갖고 추적 관리해야 합니다.

지난 15년동안 인공지능 발전은 이미 북미대륙에 큰 영향을 주었고 향후 15년 동안은 더 큰 발전이 있을것입니다. 이런 최근의 발전은 인터넷의 도움으로 대량의 데이타가 이용가능하게 되었고, 센싱 기술이 발전했으며, 특히 딥러닝 Deep Learning 의 혁신이 큰 동력이었습니다. 앞으로 교통, 의료 분야에 도입될 인공지능은 신뢰와 이해를 바탕으로 인간과 시민들의 권리를 존중하는 방식이어야 합니다. 정책당국은 혁신을 격려하면서도 윤리, 사생활 그리고 사회안전 문제를 강조해야 하며, 특히나 인공지능 기술은 그 결실이 널리 고르게 나누어 질 수 있게 개발되어야 합니다.

 

이 보고서는 인공지능 기술에 대한 소개서는 아닙니다. 오히려 인간 사회를 중심에 두고 다가올 AI를 어떻게 맞이 할 것인가를 고민한 리포트입니다. 이 고민들은 상당히 일반적인 경우를 고민한 것으로 보이지만, 모든 국가나 도시 사회에 똑같이 적용되지는 않을겁니다. 한국 상황을 잘 반영하면서 자주적이면서 건강한 사회 혁신을 가능하게 하는 인공지능 기술과 정책에 대한 고민이 시작되어야 하겠습니다.

 

 

 

Leave a reply