default_top_notch
ad38
ad39
default_setNet1_2

성균관대, ‘인공지능(AI)에 대한 신뢰 수준 조사결과’ 발표

기사승인 2017.04.20  08:35:09

공유
default_news_ad1

- 믿을 수 있나? 위험하지 않을까? 대체로 긍정적 평가와 초래할 미래 위험에 우려와 경계심 드러내

이미지편집:본지

성균관대학교(총장 정규상) SSK위험커뮤니케이션연구단(단장 송해룡 교수, 이하 위험컴연구단)이 ‘인공지능, 믿을 수 있나? 위험하지 않을까?’ 라는 주제로 인공지능에 대한 신뢰 수준을 측정하는 국민인식 조사(2017년 4월 11일~13일, 국내 거주 만 20세 이상의 성인남녀 1,000명 대상, 신뢰수준 95.0%에서 표본오차 ±3.10%p)를 온라인 조사 방식으로 진행하고 그 결과를 19일 발표했다.

조사결과 인공지능이 우리 사회에 끼칠 영향 정도에 대해 평가한 결과 68.6점으로 대체로 긍정적 평가를 보이는 것으로 나타났다. 성별로는 ‘남자’가 72.4점으로 ‘여자(64.7점)’보다 긍정적으로 평가했으며 연령별로는 ‘50대 이상’이 73.1점으로 가장 긍정적 평가를 보인 반면 ‘20대’는 62.5점으로 가장 낮은 긍정적 평가를 보여 연령이 높을수록 긍정적으로 평가했다. 

인공지능이 우리 사회에 끼칠 영향력 평가 (0점=매우 부정적, 50점=보통, 100점=매우 긍정적) 출처:성균관대 SSK위험커뮤니케이션연구단

인공지능의 대표적 응용 기술인 ‘인공지능 로봇’에 대한 신뢰도는 63.7점으로 비교적 높은 신뢰를 보이는 것으로 평가되었다. 성별로는 ‘남자’가 65.0점으로 ‘여자(62.3점)’보다 약간 더 신뢰하는 것으로 나타났다. 연령별로는 ‘50대 이상’이 68.7점으로 가장 높은 신뢰도를 보였고, ‘20대’는 54.1점으로 가장 낮은 신뢰도를 보여 연령이 높을수록 신뢰도가 높게 나타났다. 

하지만 인공지능이 초래할 사고 위험에 대해서는 경계심 높아, 우리 국민은 인공지능의 사회적 영향력은 긍정적으로 평가하는 데 반해 향후 무인자동차와 로봇 등 인공지능이 초래할 수 있는 사고 위험에 대해서는 심각하게 보는 것으로 인공지능이 초래할 사고의 위험 정도에 대해 조사한 결과 38.4점으로 다소 위험할 것이라는 인식을 드러냈다. 성별, 연령별로 유사한 경향을 나타냈다. 

미래에 인공지능이 가져올 위험 중에서 가장 고민하고 대처가 필요한 부분에 대한 질문에는 ‘인공지능 오류로 인한 인명 피해(인간 공격, 교통사고)’가 전체 응답의 48.6%로 가장 높게 나타났고 ‘인간의 일자리 대체’가 33.7%로 나타났다. 그 밖에 ‘인공지능 서비스 소외계층 발생’ 9.4%, ‘강한 인공지능의 인간 정책 및 의사결정 참여’ 8.1%의 순으로 나타났다. 

인공지능이 초래할 사고의 위험 정도 인식(0점=매우 위험할 것, 50점=보통, 100점=전혀 위험하지 않을 것) 출처:성균관대 SSK위험커뮤니케이션연구단

성별로는 모든 그룹에서 ‘인공지능 오류로 인한 인명 피해’가 가장 높은 비율을 보였지만 연령별로는 ‘인간의 일자리 대체’가 20대에서 ‘인공지능 오류로 인한 인명피해’보다 높은 비율을 보였고 30대에서도 ‘인간의 일자리 대체’ 항목에 대한 비율이 높게 나타났다. 이는 20∼30대에게 심각한 이슈인 취업 문제에 대한 인식이 반영된 것으로 해석된다. 

조사를 기획한 위험컴연구단 김원제 책임연구원은 “알파고와 무인자동차와 같은 인공지능이 상용화 단계에 접어들면서 우리 국민은 인공지능의 사회적 영향력을 긍정적으로 인식하고 있음이 드러났다. 반면에 인공지능의 미래 사고 위험에 대해서 우려하는 응답이 높았는데 불확실한 미래 위험에 대해서도 우려하고 있음을 시사한다. 결국 인공지능에 대해 우리 국민의 인식은 긍정적 인식과 우려가 교차하는 복합적 감정(mixed feeling) 상태인 것으로 풀이된다”고 분석했다. 

인공지능이 초래할 수 있는 위험들에 대해서 중요하게 책임을 져야 할 주체들을 묻는 질문에서 ‘정부’가 전체 응답의 36.1%를 차지하여 가장 높게 나타났고 다음으로는 ‘기업’이 27.7%, ‘개발자(과학자)’ 22.2%, ‘사용주체(시민)’ 13.5%의 순으로 나타났다. 

책임 주체(출처:출처:성균관대 SSK위험커뮤니케이션연구단, 편집:본지)

위험컴연구단 조항민 선임연구원은 “인공지능이 초래할 위험들은 아직 심각하지는 않지만 최근 무인자동차 사고 등의 사례를 통해 국민이 인공지능에 대한 우려를 갖게 된 것으로 보인다. 향후 인공지능과 로봇의 확산으로 인한 사회경제적인 부작용과 규범적 이슈는 중요한 위험 이슈가 될 것이다”고 지적했다. 

또한 “인공지능이 초래할 위험의 가장 중요한 책임주체로 정부를 꼽은 것은 무엇보다도 정부 주도의 법·제도 마련이 시급하다는 의미이다. 중요한 기술 위험 쟁점이 될 수 있는 인공지능의 판단, 책임, 권한 부여의 문제를 정부를 중심으로 선제적으로 대비하는 것이 긴요하다”고 제언했다.(조사 보고서 다운 바로가기)

 

참고) 성균관대 SSK 위험커뮤니케이션 연구단 개요

성균관대 위험커뮤니케이션 연구팀(SSK-RCC)은 ‘위험 커뮤니케이션’의 연구 노하우를 축적하고 전문가 네트워크를 구축하고 있다. 위험커뮤니케이션 연구팀은 한국 사회의 위험과 관련한 다양한 학술적 성과를 달성하고자 노력하고 있으며, 그동안의 연구 성과와 지식을 더욱 심화·발전시켜 대한민국의 ‘안심사회’ 구현을 위한 실천적 전략을 탐색하기 위해 지속적인 연구를 수행하고 있다.

 

박현진 기자 nwngm@naver.com

<저작권자 © 세미나투데이 무단전재 및 재배포금지>
default_news_ad4
default_side_ad1

인기기사

default_side_ad2

포토

1 2 3
set_P1
default_side_ad3

섹션별 인기기사 및 최근기사

default_setNet2
default_bottom
#top
default_bottom_notch