아이디어 팩토리 :: AI 스피커도 보안이 필수다
 


2017.10.19 19:32 교육정보

AI 스피커도 보안이 필수다



AI 스피커도 보안이 필수다

일상 생활로 다가오는 AI




2017년은 AI 스피커가 주목받는 해라고 할 수 있다. AI 스피커는 사용자의 음성 명령에 따라서 기능을 수행하는 스피커다. AI 스피커는 사람의 음성을 인공지능 기반으로 인식한다.


세계 최대 IT 행사인 2017 CES(국제전자박람회)에서 가장 주목받은 제품은 아마존에서 개발한 AI 스피커 ‘알렉사’였다. 놀라운 사실은, 알렉사가 제품 전시회에 직접 등장하지 않았는데도 큰 인기를 끌었다는 것이다. 다만 여러 기업이 자신의 제품을 알렉사를 기반으로 전시회에 선보였다. 700여 개 제품이 알렉사를 기반으로 한 제품을 시연했는데, 이때 알렉사가 주목을 받은 것이다. 알렉사가 주목을 받으면서, 당연히 올해 CES 가장 큰 화두는 AI 스피커가 되었다.


알렉사가 큰 인기를 끌면서, 아마존에 다른 IT 회사들도 AI 스피커 개발에 박차를 가하기 시작했다. 지난 6월 애플은 홈팟(Homepod)을 처음으로 공개했다. 홈팟은 올해 12월 미국과 영국에 우선 출시할 예정이다. 페이스북도 AI 스피커를 출시할 예정이다. 지난 8월 2일 블룸버그는 페이스북이 AI 스피커 개발에 착수했다고 보도했다.



아마존 에코를 동작할 때는 ‘알렉사’라고 부르면 된다. ⓒ Flickr


국내에서도 AI 스피커 바람이 일고 있다. SKT는 이미 작년 6월에 AI 스피커인 ‘누구 (Nugu)’를 출시한 상태다. 현재 음성 인식의 정확성을 위해서 IBM과 함께 공동 작업 중인 것으로 알려져 있다. 네이버는 자사가 개발한 인공지능 플랫폼인 ‘클로버’를 기반으로, 자회사 라인과 함께 ‘웨이브’를 개발하고 있다. 올해 9월 일본에서 먼저 출시할 예정이다.


이러한 동향을 볼 때, AI 스피커는 일상생활에 곧 보편화할 전망이다. 그런데 AI 스피커 주목과 함께 ‘개인 보안’ 우려도 일고 있다. AI 스피커 음성인식 기능을 사생활 침해용 도청기기로 악용할 수 있기 때문이다. 영국 BBC 뉴스를 비롯한 여러 매체는 “AI 스피커가 마이크로 폰으로 변질됐다”고 비유하면서, AI 스피커의 보안 위험성을 경고했다.



 클라우드에 수집하는 개인 음성정보 사생활 침해 될 수도 있어


AI 스피커의 개인 보안 문제점은 바로, 음성 내용이 클라우드 서버에 저장된다는 것이다. 음성인식을 정확하게 인식하기 위해서는, 음성데이터를 클라우드로 모으는 것이 가장 좋은 방법이기 때문이다.


인공지능은 기계학습을 기반으로 하고 있다. 다시 말해 인공지능은 수집한 데이터를 학습해서 판단의 정확도를 높인다. 그래서 인공지능 시스템을 개별적으로 구축해서 정보를 수집하기보다는, 클라우드를 구축해서 음성 데이터를 한곳에 모으는 것이 더 효율적이다. 더 많은 데이터를 분석할 수 있기 때문이다.


그뿐만 아니라 시스템 사양에서도 클라우드 방식이 효율적이다. 작은 기기에 높은 사양의 하드웨어를 적용하기는 어렵다. 크기가 작은 것도 문제지만, 비용이 많이 들기 때문이다. 비용이 많이 들면 가격은 오를 수밖에 없다. 그렇게 되면 시장 경쟁력이 사라진다.


이러한 이유로 AI 스피커에 클라우드를 적용한 것이다. 음성 인식률을 높일 수 있어서 좋지만, 문제는 사생활을 침해할 수 있다는 것이다. 음성 정보가 클라우드 서버에 저장되기 때문이다.


2016년 12월 미국 아칸소 주 경찰은, 살인 사건 수사를 위해 아마존에 음성 스피커가 기록한 정보를 제공할 것을 요구했다. 처음에는 거부했다. 그러나 용의자가 동의하자, 정보를 건네주었다. 기업의 개인정보 보호 여부를 떠나서, 이는 AI 스피커로 우리 일상생활의 내용이 녹음되고 있음을 보여준다.


애플은 이러한 불안을 잠재우기 위해 클라우드에 모인 개인 음성정보를 엄격한 관리 기준을 제시하고 있다. 애플의 경우 정보 저장 원칙을 길게는 2년, 짧게는 6개월로 내세웠다. 그리고 모든 음성 정보가 클라우드로 전송되는 것이 아니라, 인식률에 도움이 되는 정보만을 보낸다. 그 외 음성 정보는 애플 자체에서 처리되도록 했고, 본인이 원할 시 삭제도 할 수 있다.


국내 SKT도 이러한 불안을 잠재우기 위해 개인 음성정보 관리에 대한 엄격한 기준을 제시하고 있다. SKT는 3개월 뒤에 수집한 음성 정보를 삭제한다. 그리고 모든 음성정보를 수집하는 것이 아니라, AI 스피커를 부르는 호칭이 있을 시에 음성을 인식하고 클라우드에 저장하게 돼 있다.


그러나 이러한 엄격한 기준에도 불구하고, 사용자의 음성정보가 기록될 수 있다는 우려는 여전히 남아 있다. 기록 기간을 낮추거나, 선별적으로 음성 정보를 기록한다고는 해도, 음성정보가 클라우드에 저장된다는 것은 여전히 변함없는 사실이다.


악성코드로 AI 스피커를 위협할 수 있다. ⓒ Flickr



 AI스마트 스피커도 악성코드 감염될 수 있어


악성코드 감염 또한 AI 스피커 개인 보안을 위협하는 요인이다. 악성코드로 감염시켜서 AI 스피커에 들리는 내용을 해커 서버로 송신하게 할 수 있다. 지난 3월 위키리크스 (WikiLeaks)는 “CIA (미국중앙정보국)가 삼성과 애플에서 생산한 스마트기기에 악성코드를 심어서 도정했다”고 폭로했다.


이는 스마트기기 해킹에 감염돼, 얼마든지 사생활을 침해할 수 있음을 보여준다. AI 스피커도 예외는 아니다.


AI 스피커의 경우 악성코드 감염경로를 크게 세 곳으로 나눠볼 수 있다. 첫 번째 감염경로는 네트워크 통신 구간이다. AI 스피커는 클라우드 센터와 통신을 송수신하면서 동작한다. 이때 해커가 통산 사이에 몰래 개입해서 통신 내용을 조작할 수 있다. 이를 MITM(중간자공격) 이라고 한다. 해커는 중간에서 통신내용을 악성코드로 감염시켜서 AI 스피커를 감염시킬 수 있다.


둘째 클라우드 센터를 감염시켜서, AI 스피커를 감염시킬 수 있다. 그리고 클라우드 센터에 있는 개인 음성정보도 유출시킬 수 있다. 엄밀히 말해서 해커가 클라우드 센터에 침투해서 악성코드를 감염시키는 것은 매우 어렵다. 클라우드 센터는 중앙 관리 서버이기 때문에, 보안 시스템을 철저하게 구축해놓기 때문이다.


그러나 불가능한 것은 아니다. 해커가 특정 기관을 목표로 지속해서 사이버 공격을 시도한다면, 보안이 견고한 클라우드 센터도 뚫릴 수 있다. 실제로 보안이 견고한 시스템이 해킹 때문에 뚫린 사례는 셀 수 없을 정도로 많다.


대표적인 사례, 2010년 7월 이란 원자력 발전소 해킹 사건이 있다. SCADA(집중 원격감시 제어시스템) 해킹으로 원심분리 1,000대가 파괴된 사건이다. 놀라운 사실은, 외부 네트워크와 차단돼 있을 정도로 보안이 매우 철저한 상태였는데도 해킹됐다는 것이다. 완벽한 보안은 없음을 보여준다.


셋째, AI 스피커와 연동된 사물인터넷 기기로 감염시킬 수 있다. 사물인터넷 기기는 보안에 취약하다. 하드웨어 사양이 낮아서 우수한 보안 기능을 탑재할 수 없기 때문이다. 그래서 해커는 사물인터넷 기기로 AI 스피커를 얼마든지 해킹할 수 있다.


AI 스피커는 삶을 편리하게 해주는 기술임은 틀림없다. 그리고 반드시 퍼져야 한다. 모든 기술이 그렇듯이, 사회적인 문제점이 없는 기술은 없다. AI 스피커도 마찬가지다. 그렇다고 문제점을 간과해서는 안 된다. AI 스피커 서비스도 중요하지만, 개인 보안에 대해서도 철저하게 수립돼야 한다.


지금은 단순히 개인정보 유출 위협만 있다. 그러나 AI 스피커가 스마트 기기를 제어하는 역할을 하는 일이 보편화 됐을 때는, 해킹 위협은 더 커질 수밖에 없다. 해커가 AI 스피커를 해킹해서 주위 스마트 기기를 악의적으로 조작할 수 있기 때문이다.




글_ 사이언스타임즈 유성민 IT칼럼니스트
출처_ 사이언스올 사이언스타임즈

 

신고
 


0 Comments 0 Tracbacks

이 글이 속한 카테고리는 교육정보 입니다.

 

Leave a Reply

비밀글