본 리포트는 인공지능(AI) 개발 및 서비스 시 필요한 공개된 개인정보의 안전한 처리를 위한 정부의 지침을 분석합니다. 핵심 주제는 개인정보보호위원회가 제시한 안전성 기준 및 법적 기준으로, AI 기업들이 개인정보를 정당한 이익에 기반하여 안전하게 처리할 수 있는 방안을 제공합니다. 이 리포트는 특히 공개 데이터 활용 시 발생할 수 있는 법적 문제와 이를 해결하기 위한 자율적인 안전조치의 도입 방안에 대해 설명하고 있습니다. 주요 결과로는 정당한 이익 조항의 세 가지 요건과 AI 기업의 기술적·관리적 안전성 확보 방안, CPO와 AI 프라이버시 담당 조직의 역할, 안전조치의 최적 조합 선택 과정이 강조됩니다. 리포트는 독자들이 AI 기술과 개인정보 보호 사이의 균형을 이해하고, 이를 통해 법적 불확실성을 해소하여 AI 기업의 혁신을 도모할 수 있도록 돕습니다.
현재 인공지능(AI) 개발 및 서비스에 필요한 공개된 개인정보 처리에 대한 법적 기준이 부족합니다. 개인정보보호위원회는 인공지능 개발에 필수적인 공개 데이터가 현행 개인정보 규율체계 내에서 적법하고 안전하게 처리될 수 있도록 하기 위해 ‘인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서’를 마련하였습니다. 그러나 이러한 공개 데이터 처리를 위한 명확한 법적 기준이 현행 개인정보 보호법에 정의되어 있지 않아 개인정보 처리에 의한 법적 불확실성이 존재합니다.
인공지능(AI) 개발 과정에서 개인정보 보호는 매우 중요한 요소입니다. 공개된 개인정보는 웹 스크래핑 등을 통해 수집할 수 있으며, 이 과정에서 주소, 고유식별번호, 신용카드 번호 등의 개인 정보가 포함될 수 있습니다. 따라서, AI 기업들은 이러한 개인정보를 안전하게 처리하기 위해 노력해야 하며, 정당한 이익 조항 등 법적 기준을 충족해야 됩니다. 개인정보위는 AI 기업이 이러한 기준을 준수하여 개인정보 침해 이슈를 최소화하고 법적 불확실성을 해소함으로써 기업의 혁신 성장을 더할 수 있도록 안내서를 제공하고 있습니다.
‘정당한 이익’ 조항이 적용되기 위해서는 인공지능(AI) 개발 목적의 정당성, 공개된 개인정보 처리의 필요성, 구체적 이익형량이라는 세 가지 요건을 충족해야 합니다. 개인정보보호위원회(이하 개인정보위)는 이번 안내서를 통해 이러한 요건의 구체적인 내용과 적용 사례를 제시하였습니다. 이 조항의 합리적 해석 기준을 마련함으로써 유럽연합 일반 개인정보보호법(EU GDPR) 및 최근 인공지능(AI) 안전성 규범 논의와의 상호 운용성을 높이는 데 기여하고자 하였습니다.
AI 기업이 정당한 이익을 근거로 공개된 개인정보를 처리할 때 고려할 수 있는 기술적‧관리적 안전성 확보 조치와 정보 주체 권리 보장 방안이 구체화되었습니다. 개인정보위는 AI 개발 및 서비스 단계에서의 안전조치를 마련하기 위해 기업이 자율적으로 도입할 수 있도록 안내서를 작성하였으며, 각 기업의 AI 유형·용례에 따른 개별 여건을 고려할 것을 강조하였습니다. 또한 개인정보 보호책임자(CPO)의 역할을 강조하며, CPO를 구심점으로 하는 ‘AI 프라이버시 담당조직’을 자율적으로 구성하여 기준 충족 여부를 평가하도록 권고하였습니다.
개인정보 보호위원회(개인정보위)는 AI 기업이 정당한 이익을 근거로 공개된 개인정보를 처리할 때 고려해야 할 기술적 및 관리적 안전성 확보 조치와 정보주체 권리보장 방안에 대해 구체화하였습니다. 개인정보위는 AI 개발에 있어서 개인정보보호책임자(CPO)의 역할을 강조하며, CPO를 중심으로 하는 'AI 프라이버시 담당조직'을 자율적으로 구성하여 안내서에 따른 기준 충족 여부를 평가하도록 권장하고 있습니다. 이 과정에서, 인공지능(AI) 성능 개선이나 개인정보 침해 발생 우려 등 위험 요인을 주기적으로 모니터링하는 것이 필요합니다. 또한, 개인정보 유·노출 등 침해사고 발생 시에는 신속한 권리구제 방안을 마련해야 하며, 이러한 역할은AI 기업이 개인정보 보호의 기준을 정확히 준수하도록 돕는 역할을 수행합니다.
개인정보 의원회는 인공지능(AI) 기업이 모든 안전조치를 의무적으로 시행해야 하는 것은 아니라고 명확히 밝혔습니다. AI 기업은 각자의 특성과 AI 유형에 따라 여러 안전조치의 순기능과 인공지능(AI) 성능 저하, 편향성 등 부작용, 그리고 기술 성숙도를 고려하여 '안전조치의 최적 조합'을 자율적으로 선택할 수 있습니다. 이러한 안전조치의 최적 조합 선택 과정에서, 개인정보위는 기업들이 참고할 수 있도록 2024년 3월에 인공지능(AI) 사전실태점검을 통해 파악한 대규모 언어모델(LLM) 사업자들의 실제 안전조치 이행 사례를 안내했습니다. 이로 인해 AI 기업들이 자신들의 상황에 적합한 안전조치를 도입할 수 있는 기반을 마련하고 있습니다.
개인정보보호위원회(개인정보위)는 인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서를 통해 현재의 법률 체계와 AI 기술 발전 상황을 반영할 예정입니다. 인공지능(AI) 개발 시 활용되는 공개 데이터의 안전한 처리를 위해 필요로 하는 법령 제·개정이 이루어질 것이며, 특히 EU GDPR과 같은 글로벌 스탠다드를 고려하여 법적 기준이 설정될 것입니다.
개인정보위는 해외 주요국들이 인공지능(AI) 혁신과 안전성의 균형을 꾀하고 있는 점을 반영하여, 안내서에 국제적으로 상호 운용성 있는 기준을 마련하였습니다. 특히, 정당한 이익 조항의 적용을 통해 인공지능(AI) 개발에 필요한 공개된 개인정보 처리의 법적 근거를 분명히 하고, 이를 통해 글로벌 기준과의 상호 운용성을 높이는 데 기여하고자 합니다. 안내서는 가이드라인을 제공하며, 기업들이 자율적인 안전 조치를 도입할 수 있는 기초 자료로 활용될 것입니다.
리포트의 주요 발견은 인공지능(AI) 개발에서 개인정보보호위원회가 제시한 공개된 개인정보 처리 기준의 중요성을 인식하는 데 있습니다. 이는 AI 기업들이 데이터를 안전하게 관리하고 법적 안정성을 강화하게 하는 기틀을 제공하며, 정당한 이익 조항의 적용이 기업 혁신에 미치는 긍정적인 영향을 분명히 합니다. 이러한 기준을 충족하는 과정에서 AI 기업은 개인정보 보호책임자(CPO)를 중심으로 자율적으로 안전조치를 도입하고, 위험 요소를 지속해서 모니터링하여 개인정보 침해를 방지해야 합니다. 리포트는 향후 법령 개정과 AI 기술 발전을 고려하여 지속적인 업데이트의 필요성을 강조하며, 국제 기준과의 상호 운용성을 높이는 데 기여하고자 합니다. 이러한 노력을 통해 AI 기업들은 개인정보 보호를 강화하고, 안전성을 확보함으로써 신뢰받는 혁신을 추구할 수 있을 것입니다. AI 기술이 발전함에 따라 개인정보 보호와 혁신 간의 균형은 점점 더 중요해질 것이며, 본 리포트는 이 분야에서 실질적으로 적용 가능한 방안을 제시합니다.