이 리포트는 다양한 산업에서 AI 기술의 응용 사례와 현재 상태를 분석하고, 그에 따른 도전 과제를 조명합니다. 리포트의 주요 내용으로는 AI 에이전트의 경제적 혁신과 Secure AI Framework와 같은 보안 강화 기술, AI 챗봇의 신뢰성 문제, 그리고 LLM 언러닝의 필요성이 포함됩니다. AI 기술은 법률 및 의료 분야에서 혁신적인 성과를 보이며, SAP의 멀티 에이전트 시스템과 구글의 콘텐츠 안전 전략에서 실질적 적용 사례를 확인할 수 있습니다. 그러나, AI 기술 발전과 함께 발생하는 윤리적 문제와 인재 부족은 지속적으로 해결해야 할 주요 과제입니다. 따라서 AI의 제대로 된 사회적 활용을 위해 장기적인 연구 및 정책적 논의가 필요합니다.
AI 에이전트는 사람처럼 생각하고 행동할 수 있는 능력을 갖추고 있으며, 여러 산업의 변화와 혁신을 이끌고 있습니다. AI 에이전트는 이해하고 추론할 수 있는 능력을 가지며, 다양한 도구를 활용해 작업을 수행하고 서로 협력하여 복잡한 문제를 해결할 수 있습니다. 또한 AI 기술의 발전으로 비지도 학습이 가능해졌으며, 이를 통해 AI는 스스로 학습하며 기능을 확장할 수 있게 되었습니다.
산업 전반에서 AI 에이전트가 중요한 기술로 자리 잡고 있으며, 이는 기업들이 보다 효율적으로 운영될 수 있도록 돕고 있습니다. AI 에이전트는 CRM, HR, 고객 서비스, 영업 및 마케팅 등 다양한 분야에서 자동화와 최적화를 통해 기업 환경에 큰 영향을 미치고 있습니다. 특히, AI 에이전트의 도입은 기존의 노동 비용과 소프트웨어 비용을 통합하여 예산 절감 효과를 기대할 수 있습니다.
AI 에이전트는 법률 및 의료 분야에서 성공적으로 적용되고 있습니다. 예를 들어, 법률 AI는 로펌이나 기업 내 팀을 지원하며 법률 서비스를 제공하는 데 도움을 주고 있습니다. 의료 분야에서도 AI는 진단 지원, 환자 관리, 연구 및 데이터 분석 등에 활용되며, 이로 인해 효율성과 정확성을 크게 향상시키고 있습니다.
구글은 AI 기술의 발전과 함께 발생할 수 있는 위험에 대한 전략 수립의 필요성을 인식하고, 이를 반영하여 보안 AI 프레임워크(Secure AI Framework)를 소개하였습니다. 이 프레임워크는 6가지 핵심 요소로 구성되어 있습니다. 첫 번째로, AI 생태계 전반의 강력한 보안 기반 확장을 통해 AI 시스템과 애플리케이션을 보호하고 있으며, 과거 20년 동안 구축된 기본 보안 인프라를 활용하여 조직의 전문성을 높이고 위협 모델에 따른 대응책을 조정합니다. 두 번째로, 조직의 위협 상황에 AI를 도입하여 전반적인 위협 감지 및 대응력 능력을 향상시키고 있습니다. AI를 사용하여 사이버 인시던트에 대응하고 이상 현상을 탐지하는 방법을 다각도로 모니터링하며 위협 인텔리전스를 제공하고 있습니다. 세 번째로, 기존 및 새로운 위협에 대한 자동화된 방어 시스템을 운영하여 보안 인시던트 대응의 속도와 규모를 개선하고 있습니다. 네 번째, 플랫폼 수준의 제어 조화를 통해 조직 전반의 일관된 보안을 보장하며, AI 애플리케이션 어디에서나 최고의 보안 기능을 제공하고 있습니다. 다섯째로, AI 배포를 위한 더 빠른 피드백 루프를 생성하고 있으며, 이를 통해 위협 감지 및 보호 기능의 지속적인 개선을 목표로 하고 있습니다. 마지막으로, 비즈니스 프로세스 내 AI 시스템 관련 위험 상황을 분석하기 위한 엔드 투 엔드 위험 평가를 수행하고 있습니다.
AI 시스템은 위협 탐지와 대응력을 강화하기 위해 여러 가지 기능을 활용하고 있습니다. 조직은 생성형 AI 시스템의 입출력 데이터를 모니터링하고, 위협 인텔리전스를 기반으로 실제 공격을 사전에 예측할 수 있도록 하고 있습니다. 이러한 AI 활용은 신뢰와 안전, 위협 인텔리전스, 그리고 대응팀과의 협력을 필요로 하며 효과적인 사이버 인시던트 대응을 위한 기반이 되고 있습니다.
AI 시스템의 지속적인 학습과 피드백 루프 생성은 위협 탐지 및 보호 기능 개선에 필수적입니다. 조직은 인시던트 및 사용자 피드백을 기반으로 강화 학습 기법을 활용하여 훈련 데이터 세트를 업데이트하고, 공격에 대한 전략적 대응을 통해 모델을 미세조정하고 있습니다. 또한 레드팀 훈련을 통해 AI 기반 제품 및 기능의 안전성을 높이는 노력을 하고 있습니다.
인공지능 챗봇의 활용이 증가하면서 신뢰성의 문제에 대한 우려가 나오고 있습니다. 다양한 산업 분야에서 인공지능 챗봇이 사용되며 생산성을 향상시키고 있지만, 사용 과정에서 오류 발생 및 부정확한 답변과 이미지 제공 등의 한계가 드러나고 있습니다. 해외 블록체인 전문 매체 코인텔레그래프에 따르면, 네이처 사이언티픽 저널에 게재된 연구 결과에 따르면, 새로운 모델이 출시되고 시간이 경과함에 따라 인공지능 챗봇이 더 많은 실수를 저지르고 있는 것으로 나타났습니다. 연구의 저자는 이러한 현상을 인공지능 모델이 정확도보다 올바른 답변을 우선시하는 구조로 인해 발생한다고 설명하였습니다.
AI 챗봇이 생성한 정보는 항상 확인이 필요하다는 지적이 제기되고 있습니다. 구글의 인공지능 플랫폼은 과거에 부정확한 이미지를 생성하여 비판을 받았으며, 사용자들은 AI 도구에서 얻은 정보의 정확성을 확인할 필요성이 있다고 강조하고 있습니다. 업계 경영진들은 인공지능 모델이 연구 수행 시 출처를 제공하도록 강제하는 방법을 제시하고 있지만, 인공지능 환각 문제는 여전히 해결되지 않고 있습니다.
전문가들은 인공지능 챗봇의 정보가 부정확할 수 있음을 경고하고 있습니다. 챗봇이 생성하는 결과는 기계적인 문제로 인해 부정확할 가능성이 있으며, 특히 이미지를 포함한 답변의 경우 교육과 훈련에 의존하기 때문에 언제든지 오류가 발생할 수 있습니다. 따라서 인공지능 챗봇이 유용하더라도 사용자는 반드시 얻은 정보가 정확한지 확인해야 하며, 중요한 작업의 경우 더욱 철저한 확인이 필요하다고 강조하고 있습니다.
IBM 리서치의 사이언스 라이터인 킴 마티노는 ‘LLM에게 잊어버리라고 가르치는 이유’라는 블로그 콘텐츠를 통해 '대규모 언어 모델의 언러닝'의 중요성을 강조하였습니다. 머신 언러닝(Machine Unlearning)은 머신러닝(Machine Learning)의 반대 개념으로, 학습한 정보에서 특정 데이터를 선택적으로 제거하여 이를 사용하지 못하도록 하는 과정을 의미합니다. 잘못되거나 부적절한 데이터, 예를 들어 거짓 정보나 편견을 포함한 정보를 제거하는 것은 중요합니다. 이러한 데이터들을 제거함으로써 생성하는 콘텐츠의 품질을 높이고 잘못된 정보로부터 발생할 수 있는 문제를 줄일 수 있습니다.
대규모 언어 모델의 언러닝을 수행하는 전략으로 두 가지 방법이 있습니다. 첫째는 가중치 조정으로, 모델의 아키텍처를 변경하여 장기 기억에 영향을 주는 방식입니다. 둘째는 프롬프트 조정으로, 모델을 그대로 두고 추론 시점에 들어오는 프롬프트를 조정하여 단기 기억을 변경합니다. 이는 특정 데이터를 선택적으로 삭제하되, 모델의 성능을 저하시킬 위험을 최소화하도록 하는 전략입니다. IBM 리서치의 전문가인 나탈리 바라칼은 진정한 언러닝의 목표는 원치 않는 정보의 흔적을 완전히 제거하여 모델이 문제가 되는 질문에 답을 찾지 못하도록 하는 것이라고 설명하였습니다.
IBM은 오픈소스 AI 모델인 그래나이트(Granite)를 기반으로 대규모 언어 모델에 언러닝을 적용하는 방법을 실험하고 있습니다. 언러닝 데이터 필터가 원하지 않는 데이터를 제거하는 데 효과적이지만, 여전히 문제가 있는 콘텐츠가 남아있는 경우가 있습니다. 이러한 과정은 인공지능이 사람의 지능을 완벽하게 모방하거나 능가하기 위한 필수적인 요소로 작용하고 있으며, 선택적 망각을 수행하는 기술을 통해 보다 발전된 AI 시스템을 구축하기 위한 연구가 지속되고 있습니다.
멀티 에이전트 시스템은 각기 다른 전문성을 가진 AI 에이전트들이 서로 협력하여 문제를 해결하는 시스템으로, 이는 기업 운영에 있어 업무 효율성을 높이는 주요 요소입니다. 무하마드 알람 SAP 제품 엔지니어링 총괄은 이러한 시스템을 통해 한 사람이 수행하던 작업을 단시간 내에 완료할 수 있음을 강조하였습니다.
SAP는 'SAP 지식 그래프'를 개발 중에 있으며, 이는 생성형 AI의 환각 현상을 줄이는 데 목적을 두고 있습니다. 환각 현상은 AI가 오류 정보를 생성하는 것으로, 이 문제를 해결하기 위해 지식 그래프는 데이터를 네트워크 형태로 구조화하여 복잡한 지식의 저장 및 관리 효율을 향상시키고 있습니다. 알람 총괄에 따르면, 이 기술을 통해 환각 발생률을 시험 환경에서 30%에서 0~15%로 낮출 수 있었습니다.
SAP의 협업형 멀티 에이전트 시스템 내에서는 각 사업 분야에 특화된 AI 에이전트들이 배치되어, 문제가 발생했을 때 인간의 개입 없이도 스스로 협력하여 해결합니다. 예를 들어, 정산 과정에서 사용자가 AI 에이전트에게 문의하면, 해당 AI는 공급업체 특화 AI와 소통하여 문제의 원인을 파악하게 됩니다. 이러한 시스템은 AI가 비즈니스 내 복잡한 문제를 관리할 수 있는 기반을 제공합니다.
2024년 노벨물리학상은 AI 분야의 두 연구자, 존 홉필드 교수와 제프리 힌턴 교수에게 수여되었습니다. 이들은 인의 인공신경망을 기반으로 한 머신러닝의 발전에 기여하였으며, AI가 현대 과학의 중심적 역할을 하고 있음을 보여주는 중요한 사례입니다. 노벨위원회는 이들의 연구가 물리학적 원리를 AI에 적용하여 머신러닝을 발전시키고, 나아가 과학 전반에 기여하였다는 점을 높이 평가하였습니다. 특히, 화학상 수상자인 데이비드 베이커 교수는 AI를 활용하여 단백질 연구와 신약 개발에 중요한 기여를 하였습니다. 이러한 변화는 AI가 과학의 독자적인 주제로 자리매김하는 데 기여하고 있으며, 노벨상 수상으로 인해 향후 AI 규제 및 윤리 논의도 활발해질 것으로 기대됩니다.
AI 연구는 현재 과학과 기술 분야에서 필수적인 요소로 자리잡고 있으며, AI의 발전은 여러 산업에도 큰 영향을 미치고 있습니다. 그러나 AI 기술이 발전함에 따라 이에 따른 윤리적 문제와 부작용에 대한 논의가 필요합니다. 노벨위원회는 AI 기술이 안전하고 윤리적으로 사용될 수 있도록 방법을 고민해야 한다고 제안하였고, AI가 인류의 통제를 넘어설 수 있는 가능성에 대한 경고도 함께 전달되었습니다. 따라서 AI 기술의 발전과 함께 관련 윤리적 논의도 활발히 이루어져야 할 것입니다.
한국의 AI 연구 환경은 여전히 선진국과 비교했을 때 저조한 수준입니다. 스탠퍼드대의 분석에 따르면 한국은 AI 인재 유출이 인도와 이스라엘에 이어 세계에서 세 번째로 많은 상황입니다. 또한 2027년까지 국내 AI 분야에서 1만2800명이 부족할 것이라는 우려가 제기되고 있습니다. 이는 연구 인프라의 부족과 함께 산업계의 요구는 국회에서 정치적 논쟁으로 표류하고 있으며, AI 기술을 국가전략기술로 지정하려는 노력마저도 제약받고 있는 상황에서 나타나는 문제입니다. 이러한 문제를 해결하기 위한 연구 및 논의가 시급히 필요합니다.
구글은 생성형 AI 제품을 개발할 때 이용자들이 신뢰할 수 있는 정보에 접근할 수 있도록 하는 것을 최우선의 의무로 여깁니다. 구글은 안전을 고려하여 제품을 개발하고, 피해를 유발하지 않도록 철저한 테스트를 진행합니다. 또한, 구글은 여러 전문가 및 단체와 협력하여 안전한 인터넷 환경을 조성하기 위해 노력하고 있습니다.
구글은 다중 완화 조치를 통해 이용자들을 유해한 불법 콘텐츠로부터 보호하고 있습니다. 모든 구글 제품과 마찬가지로, 생성형 AI 제품도 안전하고 책임감 있는 결정을 내리기 위한 안전장치가 마련되어 있습니다. 이용자가 프롬프트를 작성하면 안전 필터가 작동하여 대답을 분류하고, 가장 안전하고 품질이 높은 대답을 제공하게 됩니다.
구글은 AI가 생성한 콘텐츠와 이용자가 온라인에서 찾은 정보를 보다 쉽게 이해하고 평가할 수 있도록 새로운 도구와 정책을 도입하였습니다. 이러한 정책을 통해 구글은 신뢰할 수 있는 정보와 콘텐츠를 제공하는 것을 목표로 하고 있습니다.
리포트는 AI 기술의 다양한 응용과 혁신적 성과를 소개하며, 경제적 변화를 이끌고 있는 AI 에이전트의 중요성, Secure AI Framework를 활용한 보안 전략, 챗봇의 신뢰성 이슈를 상세히 설명합니다. 특히, IBM의 LLM 언러닝은 AI의 정확성을 향상시키는 방법론으로 주목받고 있습니다. 그러나 이러한 기술 발전에도 불구하고, 윤리적 과제와 인재 부족 문제는 여전히 도전 과제로 남아있습니다. 미래의 AI 기술 개발은 윤리적 활용과 다양한 산업에의 긍정적 영향을 중시해야 하며, 이를 위해 지속적인 연구와 사회적 논의가 필요합니다. 또한, AI의 실제 적용에서 얻은 통찰은 정책 결정과 산업 발전에 실질적으로 기여할 수 있을 것입니다.
AI 에이전트는 다양한 산업 분야에서 사용되는 인공지능 기술로, 자동화 및 효율성을 개선하고자 하는 기업에게 매우 중요합니다. AI 에이전트 경제의 부상과 함께, 법률 및 의료 분야에서 혁신적인 성공 사례들이 나타나고 있습니다.
구글에서 개발한 보안 AI 프레임워크로, AI 시스템의 보안을 강화하고 위협 탐지 및 대응력을 높이기 위한 목적을 가지고 있습니다. 이는 지속 가능한 AI 시스템 개발에 중요한 역할을 담당합니다.
IBM이 연구 중인 대규모 언어 모델의 언러닝 기술로 잘못된 정보와 편견을 제거하여 AI의 정확성과 신뢰성을 높이기 위한 방법론입니다.