디지털 커뮤니케이션 플랫폼이나 관련 도구의 사용이 보편화되면서 개인정보 보호와 데이터 보안의 필요성이 강조되고 있습니다. 글로벌 메신저와 소셜 플랫폼들이 대량의 사용자 데이터를 관리하는 과정에서 개인정보 침해 사건이 종종 불거지면서 플랫폼에 대한 사용자들의 신뢰도가 중요해졌는데요.일부 국내외 빅테크 기업들이 데이터 보호와 AI 리스크 관리 체계를 도입해 예측적 보안을 강화하고 있어, 우리의 개인정보를 지키는 기술이 어떻게 발전하고 있는지 이야기해 봅니다.
커뮤니케이션 보안의 최신 트렌드와 기술
과거의 커뮤니케이션은 개인 간의 메신저, DM, 이메일 같은 소규모 커뮤니케이션에 한정되었지만, 현재는 업무 공유 플랫폼이나 고객센터처럼 개인과 기업 간의 공적인 커뮤니케이션까지 그 의미가 확장되었습니다. 이에 따라 개인정보 등을 포함하는 데이터 관리에 대한 중요성도 높아지면서 ‘커뮤니케이션 보안’이라는 개념이 생겨나게 되었습니다.
이러한 커뮤니케이션 보안의 최신 트렌드는 데이터 암호화와 다중 인증, 그리고 AI를 통한 예측적 보안 기술의 발전으로 요약할 수 있습니다.[1] 메신저 플랫폼에서 매우 중요하게 사용되고 있는 ‘종단 간 암호화(E2EE, end-to-end encryption)’는 메시지를 주고받는 사람만이 내용을 볼 수 있도록 하는 기술로서 대표적인 사례 입니다.
그 뿐만 아니라 ‘다중 인증(multi-factor authentication, 일명 ‘이중 보안 인증’)은 단순한 비밀번호 인증을 넘어 생체 인식이나 SMS 인증을 통해 보안을 강화하는 또 하나의 기술 트렌드 입니다. 최근 커뮤니케이션에서는 AI에 기반한 보안기술도 많이 적용되고 있습니다. 사용자의 패턴을 분석하여 비정상적인 행동을 감지하고, 잠재적인 위협을 사전에 차단하는 역할을 하기 시작합니다.
이러한 기술들이 결합되어 사용자 데이터의 무단 접근을 방지하고, 커뮤니케이션의 신뢰성을 확보하게 되는 원천 기술로 자리 잡게 된 것입니다.
AI 리스크 관리 시스템을 선언한 카카오의 ‘카나나’와 kakao ASI
지난 10월 22일 ~ 24일까지 진행된 if(kakaoAI)2024, 카카오 개발자 회의를 통해서 대국민 서비스 카카오는 AI를 통한 보안과 개인정보 보호를 강화하기 위해 ‘Kakao ASI’[2]라는 AI 리스크 관리 시스템을 도입한 내용을 발표 하였습니다.[3]
그 중심에는 ‘카나나(kanana)’가 있는데요. ‘카나나’는 AI의 윤리적 활용과 안전한 데이터 관리라는 목표를 기반으로, AI 시스템 설계 단계부터 배포 이후까지 관리하는 포괄적인 프레임워크로 소개 되었습니다. 이를 통해 카카오는 사용자의 개인 정보를 더욱 효과적으로 보호하며, 예기치 못한 데이터 리스크를 최소화할 수 있는 기반을 마련한다는 기술과 AI 윤리를 함께 언급하였습니다.
특히 ‘카나나’를 통해 2023년 발표했던 카카오의 AI 윤리 원칙을 구체화하고 이를 실제 개발과 운영 과정에 적용함으로써 보안성을 강화해 AI 기술의 사회적 책임을 선도해 나갈 것임을 밝히기도 했습니다.
AI를 통한 커뮤니케이션의 핵심, ‘개인정보 보호’와 ‘메시지 보안’
커뮤니케이션 채널 및 플랫폼이 AI의 기술과 통합되면서 눈에 띄는 이슈는 바로 ‘개인정보 보호’에 주목하고 있다는 것입니다. AI와 빅데이터 시대에 ‘데이터’는 쉽게 수집되고 분석될 수 있지만, 이에 따라 개인정보 유출 위험 또한 커지고 있습니다.
앞에서 이야기한 내용 처럼, 카카오의 ‘카나나’는 ‘개인정보 유출’ 문제를 해결하기 위해 데이터 수집 과정에서부터 개인정보 보호 조치를 취하고 있으며, 사용자의 동의 없이 데이터를 사용하지 않는 정책을 준수하는데 기술적인 초점을 두고 있습니다
특히 사용자의 메시지 보안에 있어서는 ’카나나’ 외에도 MS의 ‘코파일럿 스튜디오’도 주목하고 있는데요, 최근 비공개에서 퍼블릭 프리뷰로 전환된 ‘자율 에이전트 직접 생성 기능(Autonomous Agent)’[4]의 경우 AI 기반의 비즈니스 프로세스 전환 지원은 확대하면서 핵심 보안(Core Security), 개인정보 보호(Privacy), 책임 있는 AI 원칙(Responsible AI Commitments)을 준수 하는 것에 초점을 두고 있습니다.
결국, AI 시대에 맞춘 AI 거버넌스(AI Governance) 수립에 밑바탕이 되는 환경일 것입니다.
이는 강력한 암호화와 인증 과정을 거치며, 이를 통해 메시지 도용이나 외부 유출 가능성을 최소화하고자 하는 것에 있는 것 만큼, 많은 빅테크 기업들의 AI 시스템이 사용자 정보를 처리하는 과정에서 윤리적 가이드라인을 준수하게 하며, 이를 통해 사용자와의 신뢰를 강화하는 것에 초점을 두고 있다고 봐도 될 것입니다.
AI 기술이 보안 관리의 핵심으로 자리 잡음에 따라, 기술 선두 기업들의 성공 사례를 바탕으로 다른 기업들 또한 유사한 시스템을 채택하려는 움직임이 활발해지고 있습니다. 점점 개인 정보 보호에 대한 사회적 요구가 높아지는 가운데, 기업들은 사용자가 안심하고 사용할 수 있는 환경을 제공하는 것이 필수일 것입니다.
미래 커뮤니케이션 보안은 점점 더 정교하고 예측 가능한 AI 보안 시스템을 포함하게 될 것이고, 이를 통해 더욱 신뢰할 수 있는 디지털 커뮤니케이션 환경을 구축할 수 있을 것입니다.