이 리포트는 메타의 최첨단 AI 기술과 스마트 안경 '오라이언'의 발전 현황을 철저히 분석하며, 그 산업적 의미를 조명합니다. 메타는 최근 메타버스와 AI의 통합을 통해 사용자 경험의 혁신을 꾀하고 있습니다. 이 중 라마 3.2 모델은 다중 언어 지원과 이미지 해석 능력으로 주목받으며, AI 기반 응용 프로그램의 핵심 역할을 담당하고 있습니다. 오라이언은 경량화된 디자인과 AR 및 AI 기능의 통합으로 차세대 사용자 인터페이스를 제시하며, 메타버스와의 통합을 통해 더욱 발전된 서비스를 제공합니다. 이 리포트는 메타의 기술적 혁신을 경쟁사의 전략과 비교하여 그 중요성과 차별성을 탐색하며, AI 및 AR 시장에서의 미래 전망을 제시합니다.
메타는 2024년 10월 25일과 26일에 열린 메타 커넥트 2024 행사에서 새로운 하드웨어와 소프트웨어를 대거 공개하며, 인공지능(AI)과 메타버스에 대한 야심을 드러냈습니다. 이 행사에서 메타는 오픈소스 대형언어모델 '라마 3.2'를 포함하여, 퀘스트 헤드셋의 새로운 모델과 증강 현실(AR) 안경 프로토타입인 '오리온'을 발표했습니다. 마크 저커버그 CEO는 '오리온'을 "세계에서 가장 진보된 안경"이라고 소개하며, 메타의 AR 기술에서 핵심 제품으로 자리 잡을 것이라고 하였습니다.
라마 3.2 모델은 다중 언어를 지원하며 이미지 해석, 그래프 분석, 특정 물체 식별 등의 기능을 갖추고 있습니다. 이 모델은 소형 및 중형 비전 LLM(11B 및 90B)과 엣지 및 모바일 기기에 적합한 경량 텍스트 전용 모델(1B 및 3B)로 구성되어 있습니다. 이 모델들은 128K 토큰의 컨텍스트 길이를 지원하며, 온디바이스 사용 사례에 대한 성능이 뛰어납니다. 단, 유럽 연합의 규제로 인해 일부 기능은 유럽 시장에서 제공되지 않는다는 점이 있습니다.
메타는 최근 사용자들이 메신저, 페이스북, 왓츠앱, 인스타그램에서 음성으로 질문을 하면 음성으로 답변을 제공하는 기능을 탑재한 메타 AI를 발표하였습니다. 사용자는 다양한 목소리를 선택할 수 있는 기능도 제공되며, 유명 배우나 코미디언의 목소리로 설정할 수 있습니다. 이러한 발전은 사용자 경험을 더욱 풍부하게 만들어 줄 것입니다.
스마트 안경 '오라이언'은 애플의 '비전프로'나 메타의 '퀘스트'와 같은 헤드셋 형태를 탈피한 디자인을 채택하고 있습니다. 이 안경은 무게가 98g에 불과하여 가벼운 착용감을 제공합니다. 안경테는 마그네슘으로 제작되어 무게를 줄이고 열을 고르게 분산하도록 설계되었습니다. 또한, 렌즈는 실리콘 카바이드로 제작되어 내구성과 굴절률에서 강점을 가집니다.
오라이언은 최신의 AR 및 AI 기술을 통합하여 사용자에게 향상된 경험을 제공합니다. 이 안경은 70도를 지원하는 넓은 시야각을 가지고 있으며, 디지털 그래픽을 렌즈 너머로 나타내어 현실 세계에 3D 홀로그램을 비춥니다. 특히, 메타 AI가 내장되어 있어 사용자가 원하는 정보를 실시간으로 제공받을 수 있는 기능이 있습니다. 예를 들어, 사용자가 오라이언을 착용하고 냉장고를 보면서 요리 레시피에 대한 질문을 하면, AI 어시스턴트가 시각적으로 인식한 재료를 바탕으로 답변을 제공합니다.
오라이언은 사용자 경험을 향상시키기 위해 다양한 혁신적인 메커니즘을 도입했습니다. 안경다리에 내장된 마이크로 LED 프로젝터가 렌즈를 통해 빛을 반사시킴으로써 입체 영상을 생성합니다. 또한, 7개의 카메라가 탑재되어 있어 가상 객체를 실제 공간에 고정하고 눈 추적이 가능합니다. 사용자의 눈과 손 움직임을 추적하여 신경 인터페이스를 지원함으로써 직관적인 조작을 가능하게 합니다. 이 시스템은 별도의 핸드폰이나 PC 없이도 작동될 수 있으며, 무선 장치와 3.6미터 이상 떨어지게 되면 사용이 불가능하다는 점도 유의해야 합니다.
스냅챗은 최근 AR 기능이 강화된 차세대 스마트 안경 '스펙타클스'를 공개하였습니다. 이 안경은 '오픈AI' 인공지능을 탑재하여 대화하며 정보를 얻을 수 있는 기능을 갖추고 있으며, 3D로 표현하여 다른 이용자와 공유하는 기능도 지원합니다. 이를 통해 스냅챗은 메타와의 경쟁에서 차별화된 점을 강조하고 있습니다.
구글은 현재 스마트 안경 개발 중이며, 이에 대한 구체적인 정보는 공개되지 않았습니다. 하지만 구글은 AI 기술을 활용하여 증강 현실 및 사용자 경험을 향상시키기 위한 노력에 집중하고 있습니다. 다양한 기술적 접근 방식을 통해 경쟁력 있는 제품을 개발할 것으로 기대되고 있습니다.
애플은 스마트 안경 개발에 관한 소문이 끊이지 않고 있으며, 현재 진행 중인 프로젝트에 있어 많은 관심을 받고 있습니다. 애플 역시 AR 및 AI 기술을 접목한 제품을 출시할 계획으로 보이며, 이에 따라 시장에서의 경쟁이 더욱 치열해질 것으로 예상됩니다.
메타버스 플랫폼이 인공지능(AI) 서비스로 변신하고 있습니다. 메타는 지난 25일 증강현실(AR) 기기 ‘오라이언’을 통해 메타버스 콘텐츠를 구현하였으며, AI 서비스를 접목하여 플랫폼의 효용성을 증명하고자 하고 있습니다. LG유플러스는 자사의 대학가 메타버스 플랫폼 ‘유버스’를 AI 서비스로 탈바꿈시켜 고객 대학 수를 전년 대비 두 배 늘렸으며, AI를 결합한 화상회의 서비스는 실시간 번역을 지원하여 외국인 학생과의 소통을 강화하고 있습니다.
LG유플러스는 메타버스 내 강의 번역 기능과 AI 캐릭터를 통해 학사 문의와 영어 회화 등의 서비스를 제공할 예정입니다. 이에 따라 아동용 메타버스 플랫폼 ‘키즈토피아’에서도 AI의 도입 효과가 나타나며, 가입자 수가 50만 명을 넘었습니다. SK텔레콤도 메타버스 플랫폼에 AI 기능을 도입할 계획이며, 동남아 시장을 겨냥한 현지 최적화된 AI 비서를 개발하고 3D 아이템 생성 기능을 추가할 예정입니다.
AI의 도입은 메타버스의 효용성을 크게 증대시켰습니다. 메타는 AI 비서 ‘메타 AI’를 통해 AR 기기에서 사용자가 냉장고의 식재료를 인식하고 이에 맞는 조리법을 제공하는 기회를 만들었습니다. 이와 더불어 마이크로소프트의 메타버스 회의 솔루션과 로블록스에서도 AI를 활용한 다양한 기능이 추가되고 있습니다. 이러한 발전은 메타버스의 활성화와 사용자 경험 향상에 기여하고 있습니다.
메타는 2023년 10월 4일(현지 시간) 동영상 생성 AI 모델인 '무비 젠(Movie Gen)'을 공개하였습니다. 이 모델은 사용자가 제공하는 텍스트 프롬프트를 기반으로 최대 16초 길이의 동영상을 생성할 수 있는 기능을 가지고 있습니다. '무비 젠'은 사용자 사진을 이용하여 개인화된 동영상을 만들 수 있으며, 기존 영상에 명령어를 통해 다양한 편집을 할 수 있는 특징을 가지고 있습니다.
무비 젠의 기능은 크게 네 가지로 구분됩니다. 첫째, 텍스트 명령어를 통해 새로운 영상을 생성하는 기능이 있습니다. 둘째, 사용자의 개인 사진을 기존 영상에 삽입하는 개인화 기능이 제공됩니다. 셋째, 기존 영상에 대한 정밀한 편집이 가능하여 물체에 의상 변경이나 배경을 바꾸는 작업을 수행할 수 있습니다. 마지막으로, 동영상에 어울리는 음악 및 효과음을 생성할 수 있는 기능도 포함되어 있습니다. 이러한 기능들은 다양한 크리에이터들이 창의력을 발휘하는 데 도움을 줄 것으로 기대됩니다.
메타의 무비 젠은 오픈AI의 소라 및 런웨이의 젠3와 비교할 때 A/B 테스트에서 긍정적인 평가를 받았습니다. 특히 영상 생성 기능은 오픈AI의 소라보다, 정밀 영상 편집 기능은 런웨이의 젠3보다 더 나은 성과를 보였습니다. 이러한 경쟁 현황은 메타가 시장에서의 입지를 강화하는 데 중요한 요소로 작용할 것으로 보입니다.
메타의 혁신적인 AI와 스마트 안경 '오라이언'은 현대 기술 산업의 새로운 표준을 제시하고 있습니다. 라마 3.2와 같은 대규모 언어 모델은 메타의 기술 생태계를 풍부하게 하며, 오라이언은 사용자에게 새로운 경험을 제공하고 있습니다. 이러한 기술들은 메타버스와의 통합을 통해 사회적, 경제적 영역에서 새로운 가능성을 열게 될 것입니다. 그러나 AI 기술의 발전은 동시에 윤리적 문제와 편향성 논란을 야기할 수 있어, 이는 반드시 해결해야 할 과제로 남아 있습니다. 스냅챗과 오픈AI 같은 경쟁사들이 혁신을 지속하는 가운데, 메타는 독창적 기술로 시장의 방향을 선도해야 할 것이며, 이를 통해 지속 가능한 발전을 이룰 필요가 있습니다. 앞으로 메타의 기술이 실제 생활에 미칠 영향을 주목하며, 글로벌 시장에서의 영향력 확대가 기대됩니다.
출처 문서