2024년 12월 26일에 국회 본회의를 통과한 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'은 AI 산업의 발전과 안전성을 확보하기 위한 중요한 법적 기초를 마련했습니다. 하지만 그 과정에서 불거진 규제의 모호성과 과도한 제약에 대한 우려는 지속적으로 제기되고 있으며, 이러한 문제는 향후 법의 시행에 중대한 영향을 미칠 수 있습니다. 주요 쟁점으로는 고영향 AI에 대한 가이드라인의 부재, 안전 및 인권 보호 장치의 중대성, 그리고 산업 발전을 저해할 가능성이 포함됩니다. EU의 리스크 기반 AI 법의 설계에서 시사점을 얻고 국제적인 규제 비교를 통해 AI 기본법을 보완하는 필요성이 대두되고 있습니다. 2026년 1월 시행을 앞둔 현재, 업계는 이러한 변화에 대응하기 위한 전략을 세우고 있으며, 정부는 현실적인 규제와 기업의 자율성을 고려한 조정을 요구받고 있습니다.
AI 기본법은 2020년 처음 발의된 이후, 논의와 수정 과정을 거쳐 2024년 12월 26일에 국회 본회의를 통과하였습니다. 통과된 법안은 인공지능 산업의 발전을 뒷받침할 법적 근거를 마련하고, 인공지능 기술 사용에 따른 안전 및 신뢰를 확보하기 위한 것입니다. 특히, 이 법은 고영향 AI에 대한 규제를 포함하여, 사람의 생명과 신체에 중대한 영향을 미치는 AI에 대한 명확한 규제틀을 제시하고자 하였습니다. 전 세계적으로 AI 관련 법안이 제정되는 가운데, 우리나라는 유럽연합(EU)에 이어 두 번째로 AI 기본법을 제정한 국가가 되었습니다.
AI 기본법의 주요 목표는 인공지능 기술의 안전하고 신뢰할 수 있는 발전을 지원하는 것입니다. 법안의 내용에는 ▲인공지능 기본 계획 수립 및 시행 ▲대통령 소속 국가인공지능위원회 설치 ▲과학기술정보통신부 장관의 인공지능 정책 센터 지정 ▲AI 안전 연구소 운영 ▲AI 기술 관련 표준 제정 등이 포함되어 있습니다.
특히 고영향 AI와 생성형 AI는 규제 대상으로 포함되어 이용자에게 사전에 고지해야 하는 의무가 있으며, 이는 인공지능이 사람의 생명, 신체 안전 및 기본권에 미칠 수 있는 영향에 대한 책임을 분명히 하고자 하는 취지에서 도입되었습니다. AI 사업자는 이러한 고영향 AI를 이용한 서비스나 제품을 제공하는 경우에는 이용자에게 해당 사실을 명확히 알릴 의무를 지니게 됩니다.
AI 기본법은 2024년 12월 26일 국회를 통과한 후, 1년의 유예 기간을 두고 2026년 1월에 시행될 예정입니다. 이 유예 기간 동안에는 필요한 시행령과 세부 규정이 마련되어 법의 실효성을 더욱 높이는 것이 중요한 숙제입니다. 업계는 이 시기에 고영향 AI의 정의와 기준이 명확히 설정되기를 바라며, 이는 산업계의 우려를 해소하는 데 중요한 역할을 할 것으로 기대되고 있습니다.
정확한 시행 계획은 앞으로 1년간 진행될 추가적인 논의와 조율을 통해 구체화될 것이며, 이러한 과정에서 국내 AI 산업의 발전 방향이 더욱 명확해질 것입니다. AI 기본법이 발효되는 시점에는 관련 산업 육성책과 함께, 기업들이 법을 준수할 수 있도록 지원하는 체계도 마련될 것으로 보입니다.
AI 기본법은 작성 초기부터 규제의 모호성에 대한 우려가 지속적으로 제기되어 왔습니다. 특히 '고영향 AI'의 정의와 적용 범위가 명확하지 않아 이러한 명확성의 결여는 기술 개발에 심각한 영향을 미칠 수 있습니다. 기존에 제정된 법령에 따르면, 고영향 AI는 '사람의 생명, 신체 안전, 기본권에 대한 중대한 영향을 미칠 우려'를 기준으로 정의되지만, 이러한 정의는 구체적인 기준이 결여되어 있어 기업들이 기술 개발 초기 단계에서 AI 시스템이 규제 대상인지 여부를 판단하기 어려운 상황을 초래하고 있습니다. 이러한 불확실성은 결국 기업의 혁신과 시장 진입을 지연시키는 만큼, 효과적인 기술 발전을 저해하는 요인이 될 수 있습니다.
또한, AI 기본법 내에서 요구되는 데이터 품질, 윤리적 기준 등도 마찬가지로 뚜렷한 지침이 부족합니다. 이에 따라 많은 기업들이 규제를 준수하기 위한 과도한 행정적·재정적 부담을 느끼고 있으며, 이러한 과부하는 신기술 개발이나 시장 출시 속도를 저하시킬 가능성이 높습니다. 예를 들어, AI 생성형 기술들이 요구하는 투명성 의무와 위험 평가 절차는 기업들에게 상당한 부담을 줄 수 있습니다. 이는 기술 변화가 빠른 AI 산업의 특성을 고려할 때, 시장의 민첩성을 저해하는 결정적인 요소로 작용할 수 있습니다.
마지막으로, 규제의 모호성은 국제 경쟁력에도 부정적인 영향을 미친다고 지적되고 있습니다. 유럽연합(EU)과 비교할 때, 한국의 AI 기본법은 규제 위주로 설계된 반면, 미국이나 일본의 경우 상대적으로 자율적인 규제 방식을 채택하고 있습니다. 이러한 차이점은 글로벌 시장에서의 경쟁력을 약화시킬 수 있으며, 한국의 AI 기업들이 해외 시장에서 불리한 입장에 놓일 가능성이 큽니다.
AI 기본법의 제정 목적은 AI 산업의 발전과 안전·신뢰 기반의 조성에 있으나, 법안의 구체적인 조항들이 오히려 산업 성장을 저해할 수 있다는 비판이 제기되고 있습니다. 예를 들어, 기술 혁신을 저해할 수 있는 여러 가지 규제 요소들이 포함되어 있습니다. 특히 고영향 AI와 생성형 AI에 대한 투명성 의무 추가와 위험 평가, 인증 과정의 필요성은 기업들에게 필요한 투자를 과도하게 요구하며, 그에 따른 경제적 부담이 발생할 수 있습니다. 이러한 조건들이 AI 기술의 연구 및 상용화에 방해 요인으로 작용할 것이라는 우려가 커지고 있습니다.
또한, 정부의 규제 권한이 지나치게 확대되었다는 점도 문제가 되고 있습니다. AI 기본법은 민원제로 인해 과도한 규제 권한을 부여하고 있으며, 이는 기업들이 불필요한 규제를 회피할 수 있는 상황을 암시합니다. 하지만 실효적인 기술적·재정적 지원 방안은 부족하여 기업들이 성장하기 위한 명확한 방향성과 체계적인 지원이 결여되어 있습니다. 따라서 대다수의 기업들이 필요로 하는 혁신적 연구 및 개발을 위한 외부 지원 체계와 안전망이 마련되지 않은 상태에서 이러한 규제가 과연 실질적으로 긍정적인 효과를 가져올 수 있을지 의문입니다.
결과적으로, AI 기본법이 지향하는 바와는 달리 과도한 규제로 인해 오히려 산업 발전에 저해 요소로 작용할 가능성에 대한 우려가 매우 큽니다. 이러한 우려는 여러 전문가와 관련 산업 단체에서 지속적으로 제기되고 있으며, 법안의 개정 요구는 절실한 상황입니다.
AI 기본법은 인공지능 기술로 인한 안전과 인권 보호에 대한 규제를 포함하고 있으나, 실제로 세부 조항들이 미흡하다는 지적이 많이 있습니다. 특히, AI가 특정 개인이나 집단의 안전 및 인권에 중대한 영향을 미칠 수 있는 경우 조치가 마련되지 않아 실질적인 보호장치가 부족합니다. 예를 들어, AI를 이용한 채용 및 대출 심사와 관련된 시스템이 고영향 AI로 분류되고는 있지만, 이러한 시스템에서의 인권 침해에 대한 구체적인 규제 조항이 결여되어 있습니다.
이러한 문제는 AI 기본법이 규정하고자 하는 대안적 접근과는 상반된 결과를 초래할 수 있으며, 잠재적 범죄 및 인권유린의 위험은 여전히 남아있습니다. EU의 AI법에서는 '금지 AI'에 대한 규정이 명확히 제시되고 있으나, 한국의 AI 기본법에서는 이러한 조치가 누락되어 있어 위험성이 높습니다. 예를 들어, 생체인식 시스템이나 특정 사회적 평가 기준에 대한 AI의 사용이 이를 통해 인권을 침해할 가능성이 크다는 점이 지적되고 있습니다.
결론적으로, AI 기본법의 안전·인권 보호 조항들은 아직 충분한 실효성을 갖추지 못하고 있으며, 이에 따라 많은 전문가들은 후속 입법 및 해당 조항의 개선이 긴급히 필요하다고 주장하고 있습니다. 이는 연내 특정 기준과 판별 시스템을 마련함으로써 AI 기술이 인간의 기본권을 침해하지 않도록 하는 것이 시급하다는 것을 의미합니다.
유럽연합(EU)은 인공지능(AI) 규제 법안을 제정하는 데 있어 리스크 기반 접근 방식을採用하고 있습니다. 이는 AI가 초래할 수 있는 위험을 4등급으로 구분하여 각 등급에 적합한 규제를 적용하는 방식입니다. 저위험, 제한된 위험, 고위험, 허용할 수 없는 위험으로 분류된 모델에 대해서는 각 등급별로 점진적인 규제를 도입하고 있습니다. 이러한 접근은 각 응용 프로그램의 위험 특성을 기반으로 하여, 단순히 기술 자체를 규제하기보다는 실질적인 사용자와 사회에 미치는 영향을 고려하고 있습니다. 이로 인해 기업은 전체 매출의 최대 7%에 해당하는 과징금을 부과받을 수 있으며, 이는 규제 준수를 위해 신중한 운영이 요구됨을 의미합니다.
가브리엘레 마치니 박사는 EU AI법의 설계에 깊이 관여한 전문가로, AI 규제에 있어 중요한 원칙으로 '근거 기반 수립'을 강조하고 있습니다. 그는 정책 입안자들이 과대광고 또는 감정적 판단에 의존하기보다는 실질적인 데이터와 철저한 평가에 중점을 두어야 한다고 주장합니다. 그는 이러한 접근이 AI 사용에 따른 위험을 정확히 이해하고, 기존 법률이 해결할 수 있는 문제가 무엇인지를 먼저 검토해야 한다고 제안합니다. 특히 AI 기술이 지속적으로 변화하는 만큼, 현재의 법 규제가 실효성을 거두는지를 지속적으로 재평가해야 한다는 점을 강조하여, 실질적인 리스크 관리 체계의 수립 필요성을 역설하고 있습니다.
한국의 AI 기본법과 EU AI법은 모두 AI 산업 발전과 안전성을 목표로 하고 있지만, 여러 면에서 차이를 보이고 있습니다. EU AI법은 AI 기술의 리스크를 등급별로 나누어 규제를 설정하고 있는 반면, 한국의 법안은 '고영향 AI'에 대한 정의 및 가이드라인이 불명확하다는 비판을 받고 있습니다. 예를 들어, 한국은 의료기기와 관련된 특정 AI를 고영향 AI로 분류하고 있으며, 이에 대한 기준이 모호하다는 지적이 있습니다. 마치니 박사 조언에 따르면, AI 모델을 규제할 때는 그 자체보다는 응용 프로그램의 위험성을 중심으로 접근해야 하며, 이는 한국의 AI 기본법에도 적용 가능성이 있습니다. 이러한 관점에서 한국은 EU의 사례를 참조하여 보다 명확한 AI 규제 기준을 마련할 필요가 있습니다.
AI 기본법 제정 이후, 가장 시급한 과제는 고영향 AI에 대한 명확한 가이드라인 마련입니다. 고영향 AI는 사용자에게 중대한 영향을 미칠 가능성이 있는 인공지능 기술을 의미하며, 이는 사람의 생명과 신체 안전, 그리고 기본권에 중대한 리스크를 초래할 수 있는 기술을 포함합니다. 지금까지 기업들이 어떤 AI 시스템이 고영향 AI로 분류되는지를 판단하는 데 어려움을 겪고 있으며, 이는 기업의 동기부여 및 기술 발전에 부정적인 영향을 미칠 수 있습니다.
AI기본법에서는 고영향 AI의 정의가 모호하다는 비판이 제기되었습니다. 이러한 이유로 명확한 기준과 구체적인 정의가 포함된 가이드라인이 필요한 상황입니다. 이 가이드라인은 기업이 법적 요구 사항을 준수하면서 AI 기술을 개발하고 상용화하는 데 있어 필수적입니다. 따라서 정부는 관련 산업과의 협의를 통해 이러한 가이드라인을 신속히 제정해야 할 것입니다.
AI 기본법의 시행이 2026년으로 예정되어 있으므로, 기업과 업계는 이에 대한 적극적인 대응 방안을 마련해야 합니다. 특히 기업이 고영향 AI 기술을 다루는 경우, 법적 요건을 충족하는 동시에 경쟁력을 유지하기 위한 전략이 필요합니다. 이에 따라 기업은 내부적으로 AI 개발 프로세스와 안전성을 평가하는 시스템을 마련해야 합니다.
업계는 정부와의 협력도 중요합니다. 정책 연구기관 및 학계와 협력을 통해 AI 안전에 대한 연구를 지원하고, 그 결과를 기반으로 시장 변화에 적절히 대응하는 것이 필요합니다. 또한 지속적인 교육 프로그램을 마련하여 AI 기술에 대한 교육과 인식 제고를 추진해야 합니다.
2026년 1월 시행 예정인 AI 기본법에 대한 준비 상황은 여러 면에서 진전되고 있지만, 여전히 해결해야 할 과제가 남아 있습니다. 정부는 AI기본법 시행을 위한 하위법령과 시행령을 제정하는 과정이 필수적이며, 이 과정에서 관련 업계의 의견을 반영하는 것이 중요합니다.
또한, AI 기본법이 제정되기 이전의 법적 공백을 메우기 위해 국내 및 해외 사례를 면밀히 분석하고, 다양한 이해 관계자들과의 긴밀한 소통을 통해 균형 잡힌 규제를 실현해야 합니다. 마지막으로, AI 관련 기술이 신속하게 발전하는 특징을 고려하여 유연한 규제 체계를 구축하는 것이 필요하다는 점을 강조합니다.
AI 기본법은 국내 인공지능 산업의 법적 틀을 마련했다는 점에서 긍정적인 의미가 있으나, 동시에 규제의 모호성과 안전·인권 보호 조치의 미비는 명확한 리스크 관리 체계 구축을 요구합니다. EU의 사례와 전문가들의 조언을 바탕으로 고영향 AI에 대한 구체적인 가이드라인을 설정하고, 산업계와의 협력을 통해 현실적이고 실효성 있는 규제 체계를 설계하는 것이 필수적입니다. 2026년 1월의 시행을 앞두고 법과 제도의 보완, 그리고 기업들의 준비 지원은 시간적 관점에서 매우 시급하며, 이러한 노력을 통해 글로벌 경쟁력의 확보와 국민 신뢰의 제고라는 두 가지 전략적 목표를 실현할 수 있을 것입니다. 따라서 이러한 방향성을 유지하며 계속해서 규제 환경을 모니터링하고 조정해 나가는 과정이 중요함을 강조할 수 있습니다.
출처 문서