Your browser does not support JavaScript!

생성형 인공지능(AI)의 현재 동향과 도전 과제

일일 보고서 2024년 07월 04일
goover

목차

  1. 요약
  2. 생성형 AI의 도입과 활용 현황
  3. 생성형 AI의 기술적 도전 과제
  4. 생성형 AI의 윤리 및 법적 이슈
  5. 보안 및 프라이버시 이슈
  6. 생성형 AI의 미래와 산업적 영향
  7. 결론

1. 요약

  • 본 리포트는 생성형 인공지능(AI)의 현재 동향 및 주요 활용 사례, 기술적 도전 과제, 윤리적 및 법적 이슈, 보안 및 프라이버시 문제를 종합적으로 다루고 있습니다. 국방부 생성형 AI의 적용부터 다양한 산업에서의 활용 사례까지 폭넓게 탐구하며, 할루시네이션 현상과 편향성 문제 등 AI 기술의 한계점을 분석합니다. 또한, BHSN과 같은 기업들의 다양한 기술적 접근 방안을 설명하며, 구글의 제미나이(Gemini)처럼 진화하는 AI 모델들을 소개합니다. 이와 함께, 저작권 침해와 노동 시장의 변화 등 윤리적 이슈, 생성형 AI의 보안 취약점과 프라이버시 보호 조치에 대한 문제도 심도 있게 다룹니다. 마지막으로, AI 기술의 미래와 산업적 영향에 대한 전망을 통해 리포트를 마무리합니다.

2. 생성형 AI의 도입과 활용 현황

  • 2-1. 국방부의 국방생성형 AI 도입

  • 국방부는 최근 '국방생성형 AI' 서비스를 도입하여 국방 데이터를 학습하고 군사 전용 정보를 제공하기 시작했습니다. 국방생성형 AI는 약 40만 건의 군 자료를 학습했으며, 향후 100만 건 이상의 데이터를 추가로 학습할 계획입니다. 이 시스템은 주로 군사보안상의 이유로 특정 주기로 데이터를 학습합니다. 또한 군사용어 특화번역, 군 내부규정 질의응답, 문서 요약 등 다양한 맞춤형 서비스를 제공하여 업무 효율성을 높이고 있습니다. 국방부는 국방생성형 AI의 신뢰성과 편향성을 이해하고 활용하는 것이 중요하다고 강조하며, 이러한 시스템의 기술적 문제를 최소화하기 위한 검색증강생성 방식을 추가했습니다. 국방부는 이번 도입과 함께 생성형 AI 활용법에 대한 직원 교육도 병행하고 있습니다.

  • 2-2. 다양한 산업에서의 AI 활용 사례

  • 생성형 AI는 국방 외의 다양한 산업에서도 널리 활용되고 있습니다. 예를 들어, 자연어처리(NLP)와 연관된 기술 발전은 산업 전반에 걸쳐 큰 변화를 가져왔습니다. 기업들은 LLM을 통해 업무 효율성을 높이고 있으며, AI 기반 영상 제작 플랫폼 및 챗봇 등 다양한 서비스에 활용되고 있습니다. 라이언로켓은 AI 기반 영상 제작 플랫폼 '온에어스튜디오', AI 아바타 앱 '미버스', 이미지 생성형 AI 워크플로우 웹 플랫폼 '스포키' 등을 통해 독창적인 AI 서비스를 제공하고 있습니다. 또 다른 예로, 임플로이랩스는 GPT-4 기반의 AI 챗봇 '브레인톡'을 통해 기업별 연봉 정보를 제공하는 등 사용자 맞춤형 정보를 제공합니다. 이 외에도 다양한 스타트업들이 생성형 AI 기술을 활용하여 혁신적인 서비스를 제공하며 시장에서 주목받고 있습니다.

3. 생성형 AI의 기술적 도전 과제

  • 3-1. 초거대 AI의 할루시네이션 및 편향성 문제

  • 생성형 인공지능, 특히 초거대 AI는 할루시네이션(환각) 현상과 편향성 문제를 포함한 다양한 문제점을 가지고 있습니다. 할루시네이션 현상은 AI가 잘못된 정보를 그럴 듯하게 생성하여 실제 사실인 것처럼 보이게 만드는 현상입니다. 예를 들어, 챗GPT에서 '조선왕조실록에 기록된 세종대왕의 맥북프로 던짐 사건'을 묻자, 사실이 아닌 내용이 실제 역사 사건으로 설명된 사례가 있었습니다. 이는 GPT 기술에서 흔히 발생하는 문제 중 하나입니다. LG그룹 관계자는 “초거대 AI는 거짓말이 많이 발생하는데, 특히 틀린 정보를 그럴 듯 하게 표현하는 할루시네이션 현상이 많이 나타나고 있다”고 설명했습니다. 또한, 초거대 AI는 특정 계층에 대한 편향성을 가질 수 있으며, 이는 AI가 학습한 데이터에서 비롯된 것입니다. KT 임원은 “초거대 AI는 특정 계층에 대해 안 좋은 생각을 가진 사람들이 만든 데이터를 학습하기 때문에 편향성이 반영된다”고 말했습니다.

  • 3-2. 다양한 문제 해결을 위한 기술적 접근

  • 초거대 AI의 문제들은 다양한 기술적 접근을 통해 해결하고자 노력되고 있습니다. 네이버, LG그룹, SK텔레콤, KT 등 초거대 AI 개발사들은 필터링 기술, 강화학습, 센싱 기능 등을 적용하여 문제점을 극복하고 있습니다. 예를 들어, KT는 초거대 AI '믿음'에 팩트 체크 기술을 적용하고, 필터링 API를 개발해 잘못된 정보를 걸러내고 있습니다. SK텔레콤은 초거대 AI '에이닷'에 세이프티 필터를 적용하여 욕설, 성적인 내용 등을 걸러내고 있습니다. 또한, LG그룹은 초거대 AI '엑사원'에 센싱 기술을 도입하여 편향적이거나 혐오적인 표현을 바로잡고 있습니다. 네이버는 AI 윤리원칙을 준수한 AI 필터를 개발하여 클로바 스튜디오 등에 탑재하고 있습니다. 이러한 기술적 접근을 통해 초거대 AI의 문제들을 해결하기 위한 노력이 계속되고 있습니다.

4. 생성형 AI의 윤리 및 법적 이슈

  • 4-1. 저작권 침해 및 노동 문제

  • 생성형 AI는 다양한 콘텐츠를 자동으로 생성할 수 있는 능력을 가지고 있습니다. 그러나 이러한 능력으로 인해 저작권 침해 문제가 발생할 수 있습니다. AI가 생성한 콘텐츠가 원작자의 권리를 침해할 수 있으며, 이는 법적 문제를 야기할 수 있습니다. 또한, AI의 발전으로 인해 특정 분야의 노동 시장에 영향을 미칠 수 있습니다. 특히, 창작 분야의 노동자들은 AI가 자신들의 일을 대체할 수 있다는 우려를 가지고 있습니다.

  • 4-2. 윤리적 AI를 위한 노력

  • 생성형 AI의 발전과 함께 윤리적 문제도 대두되고 있습니다. 인공지능이 인간의 판단을 대신할 때, 윤리적 기준을 어떻게 설정할 것인가에 대한 고민이 필요합니다. 이를 위해 다양한 윤리 가이드라인이 제시되고 있으며, 공정하고 투명한 AI를 개발하기 위한 노력이 이루어지고 있습니다. 예를 들어, AI의 의사결정 과정에서 편향성을 최소화하고, 사용자의 프라이버시를 보호하기 위한 기술적 방안들이 연구되고 있습니다.

5. 보안 및 프라이버시 이슈

  • 5-1. 생성형 AI의 보안 취약점

  • 생성형 인공지능(AI)의 보안 취약점에는 다양한 사례가 있습니다. SK쉴더스는 2024 상반기 보안 트렌드 세미나에서 챗GPT와 같은 거대언어모델(LLM)의 프롬프트 인젝션, 불완전한 출력 처리, 민감 정보 노출 등을 가장 주요한 취약점으로 분석하였습니다. 프롬프트 인젝션은 사용자가 악의적인 입력을 통해 의도적인 답변을 유도할 수 있는 취약점으로, 이는 마약 제조법, 폭탄 제조법 등의 으로 악용될 수 있습니다. 또한 민감 정보 노출의 경우, AI 모델이 학습하는 과정에서 개인정보 필터링이나 가명 정보 처리가 미흡할 때 발생할 수 있습니다. 이 외에도 AI 서비스에 과부하를 일으키는 프롬프트 반복 요청, AI 모델 학습 데이터를 조작해 모델을 오염시키는 경우 등도 있는 것으로 보고되었습니다.

  • 5-2. 프라이버시 보호와 데이터 처리

  • 생성형 AI 서비스들은 개인화된 서비스를 제공하기 위해 이용자의 민감한 정보를 활용할 수 있습니다. 예를 들어, 애플의 '시리'는 통화 요약, 메시지, 이메일 등 개인 데이터를 통해 사용자 맞춤형 서비스를 제공합니다. 그러나 애플, 마이크로소프트 등 빅테크 업체들은 이용자의 개인 데이터를 거대언어모델(LLM) 학습에 사용하지 않으며, 이를 명시하고 있습니다. 애플은 데이터가 비공개 클라우드 컴퓨팅 서버를 통해 암호화되어 처리된다고 설명하며, 마이크로소프트의 코파일럿 역시 이용자 데이터를 모델 학습에 사용하지 않습니다. 이러한 조치에도 불구하고 예기치 못한 시스템 오류나 인간의 실수로 개인정보가 유출될 수 있는 위험성은 여전히 존재합니다. 따라서 개인정보 보호와 관련된 법적 규정이 강화되고 있으며, 기업들도 이에 대한 대응을 더욱 강화하고 있는 상황입니다.

6. 생성형 AI의 미래와 산업적 영향

  • 6-1. AI 시장 확대와 비즈니스 기회

  • 바야흐로 인공지능(AI) 시대가 도래했습니다. AI 기반이라는 형용사가 붙지 않는 서비스와 기술이 없을 정도로 AI는 다양한 산업에 널리 퍼지고 있으며, 그 영향력과 파괴력은 점점 커지고 있습니다. IBM, 구글, 마이크로소프트 등 글로벌 기업들은 AI 생태계를 구축하여 다양한 비즈니스 기회를 모색하고 있습니다. 예를 들어, IBM은 양자 컴퓨팅 기술을 통해 성능을 향상시켜 암호화, 보안, AI 및 머신러닝 분야에서 혁신을 이루고, 다양한 산업의 고객에게 선택받고 있습니다. 또한, 코오롱베니트는 53개 기업이 참여하는 AI얼라이언스를 발족하며 AI시장의 활성화를 도모하고 있습니다. 이와 같은 사례를 통해 볼 때, AI 시장은 빠르게 확대되고 있으며 기업들은 이를 비즈니스 기회로 활용하고 있습니다.

  • 6-2. 미래 기술 방향과 적용 가능성

  • AI 기술은 계속해서 발전하고 있으며, 특히 거대언어모델(LLM)과 같은 신기술이 주목받고 있습니다. 챗GPT와 같은 생성형 AI는 자연어 처리 능력을 통해 다양한 산업에서 활용되고 있으며, 기업들은 이를 통해 업무 효율성을 높이고 서비스 고도화를 꾀하고 있습니다. 예를 들어, 바이브컴퍼니는 '바이브 젬'이라는 한국어 특화 LLM을 개발하여 금융, 공공기관 등 다양한 산업에 적용하고 있습니다. 또한, 윔블던 테니스 대회에서는 IBM의 왓슨x를 활용한 생성형 AI 기술을 통해 팬들에게 개인화된 경기 정보를 제공하고 있습니다. 이러한 미래 기술들은 각 산업에서 실질적으로 적용 가능성이 높아지고 있으며, 이를 통해 기업들은 새로운 비즈니스 모델을 창출할 수 있을 것입니다.

7. 결론

  • 본 리포트를 통해 생성형 인공지능의 다양한 활용 사례와 기술적 난제, 윤리적 문제, 보안 및 프라이버시 이슈 등을 중점적으로 다루었습니다. 국방부 생성형 AI의 도입 사례와 마찬가지로, 다양한 산업에서의 AI 활용은 점차 증가하고 있으며, BHSN과 같은 기업들이 혁신적인 서비스를 선보이고 있습니다. 하지만 할루시네이션 현상과 편향성 문제는 여전히 주요 과제로 남아 있습니다. 이를 해결하기 위해 다양한 기술적 접근 방안이 제안되고 있으며, 제미나이(Gemini)와 같은 혁신적인 AI 모델이 주목받고 있습니다. 윤리적 문제와 보안 이슈 역시 중요한 도전 과제입니다. AI가 생성한 콘텐츠가 저작권을 침해할 가능성과 노동 시장의 변화는 주의 깊게 살펴봐야 합니다. 프라이버시 보호와 관련된 기술과 법적 규정의 강화는 필수적입니다. 향후 AI 기술의 발전과 더불어 이러한 문제들을 해결하는 과정에서 새로운 비즈니스 기회와 산업적 변혁이 예상됩니다. 따라서, AI 기술이 적극적으로 적용되는 미래를 대비해 더욱 안전하고 윤리적인 AI 활용 방안을 모색해야 합니다.

8. 용어집

  • 8-1. 국방부 생성형 AI [기술]

  • 국방부에서 도입한 생성형 AI로, 군사용어 및 보안성에 특화된 애플리케이션을 제공하며 앞으로 더 많은 데이터를 학습하며 맞춤형 서비스를 제공할 예정.

  • 8-2. 할루시네이션 [기술 문제]

  • 생성형 AI가 불확실한 정보를 생성하는 문제로, 편향성 및 일관성 결여와 더불어 AI 기술의 주요 약점으로 지적됨.

  • 8-3. BHSN [기업]

  • AI 법률 어시스턴트 서비스 '앨리비(Alibee)'를 운영하는 스타트업으로, 계약서 검토 등의 법률 서비스를 제공하며, AI의 할루시네이션 문제 해결을 위해 팩트체커 기능을 도입함.

  • 8-4. 제미나이(Gemini) [AI 모델]

  • 구글이 개발한 멀티모달 AI 모델로, GPT-4보다 우수한 성능을 보이며 다양한 벤치마크에서 높은 성적을 기록.

9. 출처 문서