인공지능(AI)의 급속한 발전은 뉴스 소비 및 생산 방식을 근본적으로 변화시키고 있으며, 이는 언론의 투명성과 신뢰성에 중요한 영향을 미치고 있습니다. 최근 대화형 뉴스 서비스와 개인화된 요약 기능은 독자들의 참여를 유도하는 동시에, AI 검색엔진의 편향성과 오답률 문제가 언론 신뢰성을 심각하게 위협하고 있습니다. AI 저널리즘의 현황을 살펴본 결과, 기존의 미디어 환경에서 AI의 도입이 저널리즘의 패러다임을 어떻게 변화시키고 있는지를 상세히 분석할 필요가 있습니다. 2025년 4월 22일에 진행된 기자 역량 강화 특강에서는 AI 기술의 활용법과 저널리즘의 윤리적 고려사항에 대해 심도 있는 논의가 이루어졌습니다. 이 과정에서 기자들은 인공지능의 가능성을 이해하고, 기술을 활용한 효과적인 콘텐츠 생산의 필요성을 인식하게 되었습니다. 이러한 변화는 독자가 신뢰할 수 있는 정보를 공급받기 위해 반드시 해결해야 할 과제가 되고 있습니다.
AI와 인간의 협업은 뉴스 생산 과정에서 속도와 품질 사이의 균형을 이루고 있으며, 이는 저널리즘의 미래를 밝히는 데 기여하는 중요한 요소입니다. AI가 데이터 분석과 리포트를 생성하는 데 뛰어난 반면, 인간 저널리스트의 감성과 직관은 여전히 불가결한 요소로 남아 있습니다. AI 기술은 기자들이 한층 더 깊이 있는 기사를 창작하는 데 도움을 주며, 이러한 협업은 독자가 신뢰할 수 있는 콘텐츠를 제공하는 데 기여합니다. 아울러, AI의 사용이 저널리즘의 윤리적 가치와 책임을 재조명할 기회를 제공하고 있으며, 이에 대한 지속적인 교육과 대화가 요구됩니다.
AI 기술의 발전은 전통적인 뉴스 소비 방식에 혁신을 가져왔습니다. 과거에 독자들은 신문이나 방송 뉴스와 같은 정적인 형태로 정보를 수동적으로 소비해왔으나, 이제 AI를 통해 상호작용적인 뉴스 소비가 가능해졌습니다. AI는 독자가 기사를 단순히 읽는 것에서 벗어나, 질문을 하고 추가 정보를 요청하며, 대화형 인터페이스를 통해 개인화된 뉴스 경험을 창출하는 데 도움을 줍니다.
예를 들어, 챗봇과 디지털 어시스턴트는 독자가 뉴스를 탐색하는 데 필요한 지원을 제공하며, 이는 젊은 독자들에게 더욱 매력적으로 다가옵니다. 이러한 환경에서는 뉴스룸이 독자의 질문에 실시간으로 대응하고, 맥락에 맞는 정보를 주기적으로 제공하는 등 소통의 방식이 혁신적으로 변화하고 있습니다. 이는 독자가 뉴스에 대한 소속감과 참여도를 향상시키는 계기가 됩니다.
AI는 대량의 데이터를 신속하게 처리하고 핵심 내용을 추출하는 데 뛰어난 능력을 가지고 있습니다. 이를 바탕으로 개인화된 뉴스 요약 기능이 발전하였으며, 독자들은 자신에게 맞춘 정보에 쉽게 접근할 수 있게 되었습니다. 개인의 선호도와 관심사에 맞춘 맞춤형 요약을 통해 독자들은 효율적으로 필요한 정보를 습득할 수 있습니다.
예를 들어, Il Foglio의 AI 주도 실험은 AI가 뉴스 기사를 요약하고, 이를 독자 맞춤형으로 제공하는 효과를 보여주었습니다. 그러나 이 실험은 AI가 특정 스타일이나 창의적인 표현에서 한계를 보이며 인간 편집자의 필요성을 다시 한번 부각시켰습니다. AI요약의 장점은 분명하지만, 여전히 창의적인 판단이 필요한 영역은 인간의 참여가 필수적입니다.
AI와 인간 저널리스트 간의 협업은 뉴스 생산의 과정에서 속도와 품질 사이의 균형을 이루는 데 핵심적인 역할을 합니다. AI는 사실을 검색하고 데이터를 분석하는 데 있어 인간보다 훨씬 빠르고 효율적입니다. 그러나 뉴스의 품질과 진실성을 유지하기 위해서는 인간 저널리스트의 감성과 판단이 필수적입니다.
AI가 할 수 없는 인간 고유의 감정적 이해와 내러티브의 구축은 저널리즘의 본질을 지키는 데 중요한 요소입니다. 따라서 뉴스룸은 AI를 도구로 활용하면서도 인간 편집자의 창의성과 통찰력을 결합하여 보다 깊이 있는 저널리즘을 실현할 수 있습니다. 이러한 협업은 독자들이 신뢰할 수 있는 콘텐츠를 제공받는 데 기여하며, 저널리즘의 미래를 밝히는 길로 이어질 것입니다.
초기 미디어 환경에서는 기자들이 공중전화박스에서 전화를 하거나, 취재수첩과 카메라를 들고 앞서 행해지는 사건을 쫓아다니며 정보를 수집했습니다. 당시 기자는 무선 인터넷이나 대중적인 모바일 기기가 없던 시절에도 ‘국민의 알 권리’를 바탕으로 필요한 정보를 전달하는 역할을 했습니다. 기자의 업무는 주로 직접적인 취재와 정보 확인에 의존하였으며, 이는 당시 정보의 신뢰를 유지하는 데 중요한 요소로 작용했습니다. 이러한 환경에서 기자들은 모든 사건, 이슈를 자신의 눈으로 확인하고 이를 바탕으로 기사를 작성했으며, 독자들은 주로 인쇄된 신문과 방송 뉴스를 통해 정보를 접했습니다. 이러한 초기의 미디어 환경은 기자의 직업적 기술과 윤리에 기반하여 발전되었습니다.
1990년대 후반부터 시작된 인터넷의 보급과 함께, 미디어 환경은 급속도로 변화하기 시작했습니다. 디지털 전환이란 인쇄 매체에서 온라인 플랫폼으로의 전환을 가리키며, 이 과정에서 뉴스 소비의 패턴과 생산 방식이 근본적으로 바뀌었습니다. 특히 2000년대 초반 블로그와 SNS의 등장은 개인 사용자가 콘텐츠 생산자로서 참여하게 만들었고, 이는 '사용자 제작 콘텐츠(UGC)'라는 새로운 형태의 미디어를 탄생시켰습니다. 이러한 변화 속에서 기존의 저널리즘 모델은 도전받았으며, 이는 기자들이 데이터 분석 및 디지털 플랫폼 활용 능력을 새롭게 배양해야 하는 요인이 되었습니다. 디지털 미디어의 발전은 정보의 전달 속도와 양을 증가시켰고, 이에 따라 기자들은 보다 신속하고 정확한 정보 제공을 위해 지속적인 업데이트와 사실 확인의 필요성을 느끼게 되었습니다. 또한, 글로벌화와 기술의 비약적인 발전은 저널리즘의 언어적, 문화적 다양성 또한 강화하게 되었습니다.
AI 기술의 도입은 저널리즘에 새로운 국면을 열었습니다. 2010년대 중반 이후 인공지능을 활용한 뉴스 자동 생성 기술이 등장하면서, 단순한 데이터 기반 기사는 물론 복잡한 사회 문제에 대한 분석 기사가 자동으로 제작될 수 있는 가능성이 열렸습니다. 미국의 AP 통신사는 ‘워드 스미스(Wordsmith)’라는 AI 도구를 통해 기업 실적 보고서와 스포츠 경기 기사를 자동으로 생성하는 사례가 있습니다. 이러한 AI 기자는 대량의 데이터를 빠르게 처리하고 실시간으로 기사를 업데이트할 수 있는 장점을 가지고 있습니다. 그러나 이러한 변화는 기자의 역할에 대한 새로운 질문을 불러일으켰습니다. AI가 반복적이고 데이터 기반의 기사를 작성하면서 기자들은 더욱 창의적이고 심층적인 기사를 작성하는 데 집중할 수 있는 환경이 조성되었습니다. 반면, AI가 처리할 수 없는 주관적이거나 감정적 요소가 필요한 기사 작성에 대한 필요성 또한 강조되고 있습니다. 결국 기자는 AI의 보조 도구로서 존재하게 되었지만, 동시에 AI의 판단을 넘어서는 것들이 필요한 포지션이 되었습니다.
한국언론진흥재단이 주최한 특별한 저널리즘 특강이 2025년 4월 22일에 진행되었습니다. 이 특강은 ‘생성형 AI와 저널리즘의 혁신적 결합’을 주제로 하여, 전남도립대학교의 한강희 교수가 강의를 맡았습니다. 행사에는 본지 대표와 전 직원이 참석하여 인공지능(AI)의 발전이 저널리즘 분야에 미치는 영향에 대한 심도 있는 논의가 이루어졌습니다.
특강은 기자들이 인공지능 시대에 어떻게 적응하고 성장해야 하는지를 탐구하는 기회를 제공하였습니다. 교수는 인공지능 기술의 현황을 설명하고, 저널리스트로서의 역할을 재정의할 필요성을 강조했습니다. 그는 인공지능이 저널리즘의 패러다임을 어떻게 변화시키고 있는지를 구체적인 사례를 통해 설명하며, 참석자들이 실질적으로 어떤 기술을 익히고 활용할 수 있을지를 논의했습니다.
한강희 교수는 강의 중 ‘AI는 인류가 개발한 가장 위대한 기술이며, 이러한 기술 변화는 지금 우리가 직면하고 있는 언론 환경을 근본적으로 변화시킬 수 있다’고 강조했습니다. 그는 AI가 언제 어디서나 쉽게 접근할 수 있는 고급 정보원을 제공하고, 저널리즘의 생산성을 높이는데 기여할 수 있다고 설명했습니다.
그는 또한 ‘생성형 AI’와 그 발달의 3가지 핵심 요소인 생성형 AI, Agentic AI, Physical AI에 대해 설명하였습니다. 생성형 AI는 방대한 양의 학습 데이터를 바탕으로 텍스트, 이미지 등을 생성할 수 있으며, Agentic AI는 사용자의 개입 없이 자율적으로 문제를 해결하는 형태의 AI 기술을 의미합니다. Physical AI는 이는 실제 환경에서 인간과 상호작용하며 작업을 수행할 수 있는 지능형 로봇을 포함합니다. 교수는 이런 기술들이 저널리즘 업무에 통합될 경우, 기자들의 역할과 업무 방식이 변화할 것이라고 밝혔습니다.
이 특강에서 논의된 주요 내용은 기자들이 스스로의 역량을 강화할 필요성을 강조했습니다. 한 교수는 ‘기자들은 인공지능 기술을 이해하고, 이를 자신의 업무에 효과적으로 활용해야만 미래의 변화에 적응하고 주도할 수 있다’고 말했습니다. 따라서, 현재 저널리즘 분야에서 AI 교육은 선택이 아닌 필수가 되고 있습니다.
또한, 교수는 기자들이 AI 사용에 능숙해지면 더 창의적이고 생산적인 콘텐츠를 생성할 수 있으며, 독자와의 소통 방식도 혁신할 수 있다는 점을 강조했습니다. 이런 변화가 의미하는 바는 단순한 기술 도입을 넘어, 저널리즘의 윤리적 가치와 책임을 재조명할 기회가 될 것임을 시사합니다. 이러한 교육적 접근은 기자들이 기술과 윤리를 조화롭게 통합하여 저널리즘 분야에 지속 가능한 방향성을 부여하는 데 기여할 것입니다.
최근 미국의 연구기관인 콜럼비아대학교의 토 센터(Tow Center for Digital Journalism)에 의해 발표된 보고서는 여러 AI 검색엔진의 오답률과 투명성 문제를 심도 있게 다루고 있습니다. 이 보고서는 챗GPT 서치, 퍼플렉시티, 코파일럿 등 8개의 AI 기반 검색엔진이 주요 언론사의 보도를 정확히 인용하지 못하는 심각한 문제를 드러냈습니다. 실험 결과에 따르면, 40% 이상의 경우 정보가 완전히 틀리거나 잘못된 출처를 인용한 것으로 나타났습니다. 이는 검색엔진의 신뢰성을 크게 훼손할 수 있는 요소로 작용합니다. 이 같은 오류는 검색엔진이 단순히 빠른 답변을 제공하는 데 집중하는 과정에서 발생했으며, 출처의 정확성과 일관성은 후순위로 밀려나 있는 상황을 반영합니다.
AI 검색엔진들이 다양한 정보를 제공하는 과정에서 기본적인 저널리즘 윤리인 출처 표기의 중요성이 간과되는 경우가 많습니다. 실험에서 드러난 바와 같이, 이러한 검색엔진들은 뉴스 출처를 제대로 표기하지 않는 경우가 빈번하게 발생하며, 그로 인해 사용자들은 신뢰할 수 있는 정보를 얻기 어려워집니다. 특히, 토 센터의 연구 결과 발표에 의하면, 8개 검색엔진 중에서 가장 높은 출처 인용 비율을 기록한 퍼플렉시티 프로조차도 불완전한 인용을 내놓았습니다. 이 같은 현상은 공공 담론의 왜곡을 초래할 수 있으며, 정보 소비자에게 큰 혼란을 가져올 수 있습니다.
AI 검색엔진의 투명성을 확보하기 위해서는 여러 가지 방안이 필요합니다. 첫째, 사용자가 정확한 정보에 접근할 수 있도록, 모든 AI 생성 콘텐츠에 있어서 명확한 출처 표시와 버전 기록을 의무화하는 것이 중요합니다. 둘째, AI의 학습 데이터를 포함한 알고리즘을 투명하게 공개하여 제3자가 검증하는 체계가 마련되어야 합니다. 셋째, 기사 최종 검수 단계에 인간 편집자와 전문 감수자를 포함시킴으로써 윤리적·사실적 정확성을 확보해야 합니다. 이런 투명성 확보 방법들은 단순히 기술적인 신뢰성을 높이는 것을 넘어, 정보 소비자와 언론사 간의 신뢰를 구축하는 데에도 중요한 역할을 할 것입니다.
AI 저널리즘의 발전과 함께, 언론의 투명성 확보는 더욱 중요해졌습니다. AI가 생성한 콘텐츠가 독자에게 제공될 때, 그 과정에 대한 명확한 정보가 필요합니다. 이를 위해 모든 AI 생성 콘텐츠에는 출처와 생성 과정에 대한 정보를 명시하도록 하는 것은 필수적입니다. 2025년 4월 25일에 발표된 연구에 따르면, 투명한 출처 공개가 독자들의 신뢰를 높이는 데 중요한 역할을 한다고 합니다.
또한, 저널리즘 분야에서의 AI 활용과 관련된 윤리적 고려사항을 다루는 가이드라인을 수립하는 것도 필요합니다. 이 가이드라인은 AI의 사용 범위와 한계를 명확히 하여, 독자가 AI 기술의 적용 과정에서 불안감을 느끼지 않도록 해야 합니다.
AI 저널리즘에서는 저널리스트의 책임이 여전히 중요합니다. AI가 콘텐츠를 생성하더라도, 최종적으로 기사를 검토하고 책임지는 주체는 인간입니다. 이는 [2025년 4월 26일]에 발표된 한 연구에서도 강조되었습니다. 저널리스트는 AI의 도움을 받되, 독립성을 유지해야 하며 AI 기술에 전적으로 의존해서는 안 됩니다.
따라서 각 언론사는 AI의 실제 활용 결과에 대한 책임을 명확히 정의해야 하며, AI의 오류나 편향성으로 인해 발생하는 문제에 대해 어떻게 대처할 것인지에 대한 규정을 마련해야 합니다. 이는 저널리즘의 신뢰성을 높이는 데 기여할 것입니다.
AI는 데이터 기반으로 학습하며 종종 기존의 사회적 편견을 강화할 수 있습니다. 2025년 4월 25일 발표된 연구에 따르면, AI는 수집하는 데이터의 특성에 따라 잘못된 정보를 생성할 수 있으며, 이는 결과적으로 언론의 신뢰성을 저하시킬 수 있습니다.
이를 방지하기 위해서는 AI의 학습 데이터와 알고리즘의 투명성을 높이고, 인간의 감독이 필수적입니다. 인간 편집자가 AI가 생성한 텍스트를 검토하여 편향성을 체크하고 윤리적 기준을 준수하는 것이 중요합니다. 특히, AI가 제공하는 정보가 현 사회의 다채로운 관점을 반영하도록 하는 것이 필요합니다.
AI 저널리즘은 독자와의 상호작용을 강화하고 콘텐츠 생산의 효율성을 높이는 긍정적인 측면을 지니고 있습니다. 그러나 AI 검색엔진의 오답률, 편향 문제 그리고 출처 불명확성은 언론 신뢰를 훼손할 위험이 있음을 간과해서는 안 됩니다. 이러한 문제를 해결하기 위해서는 첫째, 모든 AI 생성 콘텐츠에 대해 명확한 출처와 버전 기록을 의무화해야 합니다. 둘째, AI 시스템의 학습 데이터와 알고리즘을 투명하게 공개하여 제3자가 검증할 수 있는 체계를 마련해야 할 필요가 있습니다. 셋째, 기사 작성의 최종 검수 단계에 인간 편집자와 전문 감수자를 포함시키고 윤리적·사실적 정확성을 확보해야 합니다.
마지막으로, AI 저널리즘의 신뢰성 및 독립성을 유지하기 위해 정기적인 윤리 교육과 거버넌스 체계를 구축하는 것이 필수적입니다. 이러한 원칙이 구축되고 실천될 때, 독자는 AI와 인간이 함께 만들어낸 뉴스를 신뢰하고 안전하게 소비할 수 있을 것입니다. AI가 저널리즘의 도구로 활용될 수 있는 기회를 최적화하며, 투명성과 윤리를 기반으로 하는 저널리즘의 미래를 창조해 나가야 할 시점에 있습니다.
출처 문서