보안정보
전문화된 보안 관련 자료, 보안 트렌드를 엿볼 수 있는
차세대 통합보안관리 기업 이글루코퍼레이션 보안정보입니다.
영화 속 AI가 현실세계에 등장하다?
2024.07.03
30,280
최근 인공지능(AI) 업계에서는 쉴 틈 없이 ‘사건(Events)’이 터지고 있다.
챗GPT(ChatGPT)를 만든 오픈AI(OpenAI)는 지난해 말 샘 알트만(Sam Altman) CEO 축출의 원인으로 꼽혔던 ‘AI 안전팀’을 해체했다. 그리고 유럽연합(EU)은 세계 최초의 AI 규제 법인 ‘AI Act’의 시행을 발표했는데, AI를 규제하는 첫 번째 법안인 만큼 관련 업계에서는 이에 촉각을 곤두세우고 있다. 한국에서는 ‘AI 서울정상회의’가 열렸는데, 여기서는 “AI 안전·혁신·포용성을 향상시키는 국제 협력 강화를 촉구한다.”라는 선언이 발표됐다. 여기에 더해 올해 G7 정상회의 공동성명에는 ‘AI의 군사 분야 개발과 사용’에 대한 내용이 다뤄질 것이라는 점이 日 언론사를 통해 알려지기도 했다.
이처럼 AI라는 단 하나의 꼭지만으로도 많은 관심과 영향을 불러일으킬 만한 이슈들이 연달아 발생하고 있는 가운데, 오픈AI에서 다시 한번 AI 분야의 혁신의 바람을 불러일으키며 모든 이목을 집중시키고 있다. 바로 최신 대규모언어모델(LLM) ‘GPT-4o(GPT-포오)’를 공개한 것인데, 영화 속 AI처럼 실제로 사용자와 실시간으로 대화하며 질문과 답변이 가능한 만큼 AI와 인간의 패러다임을 바꿔 놓을 주인공으로 주목받고 있다.
01. AI 어시스턴트(AI Assistant)에 대해
[그림 1] AI 어시스턴트 관련 이미지 (출처: Iterators)
인공지능(AI)에 대한 관심도가 이토록 높아지기 이전, 과연 우리가 생각하던 AI의 모습은 어땠을까? 아마도 인간의 질문에 대한 명확한 사실과 팩트를 정리하여 알려주거나, 우리의 삶 속에서 하나의 친구이자 조력자로서 단지 질문 뿐만 아니라 감정까지 공유가 가능한 형태였을 것이다.
하지만 현실에서의 AI는 우리가 상상하던 모습과는 많이 달랐다. 우리의 삶의 친숙한 AI로는 삼성(Samsung)의 ‘빅스비(Bixby)’, 애플(Apple)의 ‘시리(SIRI)’와 아마존(Amazon)의 ‘알렉사(Alexa)’ 같은 AI 어시스턴트(AI Assistant)를 꼽을 수 있다. AI 어시스턴트는 사용자의 자연어 명령을 이해하고 원하는 태스크(Task)를 수행하는 프로그램을 의미하는데, 말 그대로 AI 비서 또는 가상 비서라고 불린다.
빅스비와 시리와 그리고 알렉사로 대표되는 AI 어시스턴트는 사용자의 음성(자연어)이나 명령어를 인식해 사용자의 명령에 따라 음악을 재생하거나, 스마트폰, 가전제품 그리고 자동차 등 사물인터넷(IoT)으로 제어할 수 있는 기기 등을 작동하는데 사용된다. 최근에는 스마트폰은 물론 차량 그리고 가전제품 등 삶과 밀접한 모든 영역에 AI 어시스턴트가 탑재되어 있다고 볼 수 있다. AI 어시스턴트는 사람의 언어를 컴퓨터가 이해할 수 있는 형태로 바꾸는 자연어 처리를 통해 사용자의 명령 등을 알아듣고 단순히 단어의 뜻이 아닌, 맥락을 이해해 의도를 파악한다. 그리고 머신러닝(ML) 알고리즘과 예측 분석 등을 통해 방대한 양의 데이터를 분석하고 패턴을 통해 학습하며 지속적으로 성능을 개선할 수 있다. 이러한 동적 학습 과정을 통해 AI 어시스턴트는 사용자의 선호도에 적응하고 시간이 지남에 따라 더욱 개인화되고 효과적인 솔루션을 제공하기 위해 진화할 수 있다.
다만 지금까지의 AI 어시스턴트는 완벽하지 못하다는 평을 받아왔다. 가장 먼저 AI 어시스턴트는 학습을 통해 작업을 수행하기 때문에 정확성에 한계가 있을 수 있다. 이를 환각 현상(Hallucination, 할루시네이션)이라고 부르기도 하는데, 잘못된 정보를 기반으로 사용자에게 답변을 제공하는 것이다. 다음으로 AI 어시스턴트는 인간처럼 감정을 갖지 않기 때문에 상황에 따라 냉정한 판단을 할 수 있다. 이를 통해 일부 사용자들에게 실망감을 안겨줄 수도 있다. 마지막으로 AI 어시스턴트의 응답은 인간에게 의존하며, 인간의 편견이나 오류가 포함될 수 있다는 점이다. 또한 AI 어시스턴트는 학습 데이터를 기반으로 작동하기 때문에 편향된 응답을 제공할 수도 있다.
가장 큰 문제점으로는 AI 어시스턴트가 길게는 몇 초, 짧아도 약간의 지연이 존재하다는 점을 꼽을 수 있다. 사용자의 명령어를 기기적으로 처리를 하는 것은 물론이고, 클라우드를 통해 문맥을 정확하게 이해하는 과정이 필요하기 때문이다. 하지만 우리가 지금까지 상상해오던 AI는 이러한 모습이 아니다. 현실 속 AI와는 다르게 영화 ‘아이언맨(Iron Man)’ 주인공 토니 스타크의 AI 비서 ‘자비스(Jarvis)’와 ‘그녀(Her)’에서 주인공 테오도르가 사랑에 빠진 AI 시스템 ‘사만다(Samantha)’는 답변의 속도는 물론 인간의 감정까지 이해하는 모습을 보여왔다. 이처럼 AI-인간 간의 부드럽지 못한 관계로 인해 많은 사용자들은 “역시 영화는 영화일 뿐, AI에게 많은 것을 기대하지 말자.”라는 생각을 갖고 있었을 것이다. 그러나 최근 이러한 단점을 단박에 해소시킨 오늘의 주인공이 등장했다.
02. ‘GPT-4o’, 왜 새로운 패러다임으로 불릴까
AI 어시스턴트 분야의 혁신을 이끌어낸 주인공은 역시나 오픈AI이었다. 오픈AI는 지난 4월 13일, ‘스프링 업데이트(Spring Update)’ 행사를 개최해 최신 LLM인 ‘GPT-4o(GPT-포오)’를 공개했다. 여기서 ‘o’는 모든 것을 뜻하는 ‘옴니(Omni)’에서 따왔는데, 이는 GPT-4o가 텍스트와 오디오, 비디오 AI를 통합한 멀티모달(Multi-Modal) AI 엔진이며, 모든 데이터를 다룬다는 점을 강조하기 위한 것으로 풀이된다.
1) ‘GPT-4o’, 왜 주목받을까?
오픈AI가 공개한 GPT-4o는 사용자와 실시간 음성 대화가 가능한 AI 모델인데, 그간 ‘GPT-3’나 ‘GPT-4’ 등이 적용된 챗봇(ChatBot) 형태의 챗GPT(ChatGPT)는 텍스트를 통해 사용자와 질문과 답변을 주고받았다. 그러나 GPT-4o는 텍스트뿐만 아니라 실제 인간과의 대화도 가능해졌음은 물론, 평균 응답 시간이 약 0.23초로 인간의 평균 답변 속도(0.32초)와 거의 비슷하다. 이를 통해 실제로 감정을 공유하는 듯한 대화도 가능하고, 수학 문제 풀이와 심지어 50개 언어에 대한 실시간 통역 기능도 보유하고 있다.
행사에서 GPT-4o를 공개한 오픈AI의 최고기술책임자(CTO)인 미라 무라티(Mira Murati)는 GPT-4o에게 “수면장애가 있는데 잠이 잘 오는 이야기를 들려줘”라고 요청했다. 이에 GPT-4o는 이야기를 들려줬는데, 구연동화 톤의 목소리는 물론 로봇과 같은 목소리로도 이야기를 들려줬다. 그리고 미라 무라티 CTO가 “나는 GPT를 사랑한다.”라는 문장을 쓰자 이를 본 뒤 “너무나 감동적이야 고마워”라는 감탄사를 내뱉는 등 실제 인간과의 감정을 공유하는 듯한 대화가 가능함을 보여줬다.
이처럼 공개된 GPT-4o와의 대화는 실제 인간들 간의 대화와 구분이 안 될 정도인데, 이러한 느낌을 주기 위해 GPT-4o는 5종류의 목소리를 지원한다. 더욱 놀라운 점은 GPT-4o가 지난해 11월 공개된 GPT-4 터보(GPT-4 Turbo) 보다 속도는 2배 더 빠르고 비용은 절반 수준에 불과하다는 점이다.
대폭 개선된 멀티모달 기능도 GPT-4o의 중요한 특징이다. 멀티모달은 여러 가지 형태의 데이터를 동시에 이해하고 처리하는 능력을 의미한다. GPT-4o는 텍스트, 음성, 이미지, 비디오를 동시에 실시간으로 처리할 수 있으며, 이를 통해 사용자와 보다 자연스럽고 원활한 대화를 나눌 수 있다. 예를 들어 스마트폰 카메라로 GPT-4o에 스포츠 경기를 보여주면 해당 경기의 규칙을 설명해 줄 수 있다. 그 외에도 사용자와의 과거 대화를 기억하여 대화의 연속성을 유지하거나, 데스크톱 앱을 출시해 더욱 편리하게 AI와 상호작용을 할 수 있도록 지원하는 등 다양한 상황과 환경에서 더욱 빠르고 효율적으로 서비스를 이용할 수 있게 되었다.
발표에 따르면 GPT-4o는 몇 주 내 정식으로 출시될 예정이지만, 개발자를 위한 API는 발표 당일부터 바로 이용 가능했다. 개발자들이 새로운 모델로 애플리케이션을 구축할 수 있게 한다는 오픈AI의 방침인데, 여기에 더해 모든 이용자들에게 GPT-4o를 무료로 제공할 것을 밝혔다. 이는 챗GPT에 로그인한 사람이라면 누구나 무료로 사용 가능하다는 점이다. 여기서 이러한 놀라운 성능을 보유한 AI 모델을 왜 무료로 제공하는 것인지에 대한 의문이 생길 수 있는데, 여기에는 오픈AI의 전략이 담겨있다. 많은 사람이 GPT-4o를 무료로 이용하면, 그 유용성과 잠재력을 직접 체감하게 될 것이다. 그리고 여기서 획득한 긍정적인 경험은 유료 서비스(챗GPT플러스 등)로의 전환을 유도할 수 있으며, 장기적으로 오픈AI의 고객 기반을 넓히는 효과를 가져온다. 또한 사용자가 많아질수록 더 많은 데이터가 쌓여 AI 모델의 성능 향상에 큰 도움이 된다.
GPT-4o를 공개하며 미라 무라티 CTO는 “상호작용과 사용 편의성 측면에서 큰 진전을 이룬 것은 이번이 처음이다.”라고 전했으며, 관련 업계에서는 GPT-4o로 ‘인공일반지능(Artificial General Intelligence, 이하 AGI)’ 시대가 시작됐다며 환영했다. 여기서 AGI는 인간과 유사한 지능과 스스로 학습할 수 있는 능력을 갖춘 SW를 만들려는 이론적 AI 연구 분야인데, GPT-4o가 인간과 거의 구별할 수 없을 정도의 수준으로 듣고, 보고, 추론하고, 말한다는 점에서 AGI라고 봐도 무방하다는 것이다. 이에 관련 업계에서는 지금까지의 AI가 실제 세상 그리고 인간과의 상호작용에 있어 제약이 있었던 것과는 달리, 영화 ‘아이언맨’의 주인공인 토니 스타크의 AI 비서 ‘자비스’와 ‘그녀’의 주인공 테오도르가 사랑에 빠진 AI 시스템 ‘사만다’처럼 AI와 인간이 원활히 상호작용하는 새로운 패러다임의 시작이 될 것으로 보고 있다.
2) 새로운 패러다임을 둘러싼 치열한 전투
오픈AI의 GPT-4o가 공개되며 AGI 시대의 개막은 물론 새로운 패러다임이라는 놀라운 평가를 받고 있는 가운데, 이를 둘러싼 AI 주도권 싸움이 격화되고 있다.
오픈AI가 GPT-4o를 발표한 다음날, 구글은 연례 개발자 콘퍼런스(I/O)에서 생성형 AI인 제미나이(Gemini)가 도입된 검색 엔진을 비롯해 향상된 AI 기능을 공개했다. 이를 두고 관련 업계에서는 오픈AI가 AI 분야의 주도권 싸움에서 공고한 우위를 점하기 위해 하루 전날에 GPT-4o를 공개했을 것으로 바라보고 있다. 구글이 발표한 업그레이드된 제미나이 1.5 시리즈는 한 번에 처리할 수 있는 정보의 양이 한층 확대될 전망이다. 이와 함께 음성 모델 기반의 AI 어시스턴트 ‘프로젝트 아스트라(Project Astra)’와 AI 사진 검색 기능인 ‘애스크 포토(Ask Photo)’를 선보였다.
이 중 아스트라는 구글의 AI 연구소 딥마인드(DeepMind)에서 선보인 멀티모달 AI 어시스턴트로, 연말에 공식 출시될 예정이다. 아스트라를 소개한 딥마인드의 CEO 데미스 허시바스(Demis Hassabis)는 “우리는 오랫동안 일상생활에서 도움이 될 수 있는 범용 AI 에이전트를 만들고 싶었다.”라며 “휴대전화나 안경과 같은 폼팩터를 통해 전문가 역할을 하는 비서를 곁에 둘 수 있는 미래를 쉽게 상상할 수 있다.”라고 강조했다. 이와 함께 시연 영상을 공개했는데, 시연 영상에서는 아스트라를 실행한 후 휴대전화 카메라로 주변 상황을 보여주고 “안경이 어디에 있는지 기억해?”라고 묻자 “아까 테이블에 놓여진 사과 옆에 있었다.”라고 답하는 모습이 담겼으며, 이와 함께 컴퓨터 화면에 있는 코드를 분석하여 문제점을 짚어 주기도 했다.
다만 아스트라 역시 스마트폰 카메라를 통해 사물을 가리키면, 사물을 인식하고 관련 정보를 제공하는 등 GPT-4o와 유사한 서비스인만큼 놀라움이 반감됐다는 평가를 받고 있으며, 오픈AI의 움직임을 통해 AI 분야 주도권 경쟁의 치열함을 체감해 볼 수 있었다.
03. ‘GPT-4o’로 인한 파급력과 논란
기존 실제 세상 그리고 인간과의 상호작용에 있어 제약이 있던 AI와는 다르게 실제 인간과 소통을 하는 듯한 느낌을 주는 오픈AI의 GPT-4o와 구글의 아스트라 등이 빠르게 등장하고 있다. 이를 통해 엄청난 파급력이 몰려올 것으로 예상되는 가운데, 이와 관련된 논란도 최근 발생하며 이슈 몰이를 하고 있다.
1) ‘GPT-4o’발 지각 변동의 시작
GPT-4o를 활용해 주목을 받은 첫 번째 분야는 ‘게임’이었다. 국내 게임 개발사인 크래프톤(Krafton) 산하의 렐루게임즈(ReLU Games)는 지난 5월 28일 GPT-4o를 활용한 추리게임 ‘언커버 더 스모킹 건(Uncover the Smoking Gun)’의 데모 버전을 스팀(Steam)에 출시했다. 스모킹 건은 이용자가 탐정이 돼서 사건의 단서를 추적, 진실을 밝히고 범인을 찾는 추리 게임이다. 기존 선택지형 추리 게임과 달리, 사건 용의자들과 자연어 처리 기반의 자유로운 채팅을 진행할 수 있다. 대화로 용의자를 심문하고 증거를 파헤치는 방식이다.
렐루게임즈는 GPT-4o를 게임에 맞춰 미세조정 후 시나리오 진행 분야에 도입했다. 이를 통해 게임 속 용의자는 단순히 이용자의 질문에 대답하는 수준을 넘어, 각자 개성에 맞는 말투로 실제 사람과 채팅 하는듯한 몰입감을 제공한다. GPT-4o가 공개되고 얼마 지나지 않았음에도 불구하고 이를 접목한 해당 게임은 이용자들에게 호평을 받았으며 따라 앞으로 GPT-4o와 같은 AI를 활용해 등장할 서비스들에 대한 기대감을 높였다.
GPT-4o가 게임 분야에 적용된 것으로는 놀라기에는 아직 이르다.
지난 5월 31일, 美 IT 전문매체 디인포메이션(The Information)은 애플(Apple)이 오픈AI의 생성형AI를 아이폰(iPhone)에 탑재하는 계약을 체결했다고 보도했다. 그리고 실제로 애플은 지난 6월 10일 美 캘리포니아주 쿠퍼티노 본사에서 열린 연례 기술 콘퍼런스 ‘2024 세계개발자회의(Apple Worldwide Developers Conference, 이하 WWDC)에서 자사 기기 운영체제(OS)에 AI 기능을 도입할 것을 밝힘과 동시에, 자체 AI 시스템인 ‘애플 인텔리전스(Apple Intelligence)’를 공개했다.
애플은 그동안 AI 분야에서 다소 뒤처져 있다는 평가를 받았다. 음성인식 AI인 ‘시리’가 사용자의 부정확한 음성을 인식하는 데 한계를 보이며 사실상 자주 이용하지 않는 서비스로 평가받았기 때문이다. 이뿐만 아니라 오픈AI, 구글, 앤스로픽, Xai 등 생성형 AI 기업들이 자사의 AI 모델을 나날이 고도화해 나가며 좋은 평가를 받아온 가운데, 애플은 챗GPT와 같은 텍스트 기반 생성형 AI에서도 후발주자로 평가받았다. 사실상 기술적으로 걸음마 단계였기 때문이다.
애플은 이와 같은 상황을 고려해 AI 선두주자인 오픈AI와 손을 잡은 것이다. 美 경제전문지인 비즈니스인사이더(Business Insider)는 “시리는 출시된 지 10년이 넘었지만 기능이 매우 제한적이었다.”라며 “반면 오픈AI의 GPT-4o는 팀 쿡 CEO를 포함한 애플의 경영진들이 여태껏 시리로 달성하고자 했던 기술적 수준에 도달했다.”라고 평가했다.
이번 연합을 통해 앞으로 애플 제품의 이용자들은 단순한 버전의 챗GPT가 아니라 인간처럼 자연스러운 대화가 가능한 GPT-4o를 사용할 수 있게 된다. 시리와 챗GPT가 통합되면서 시리가 대답하기 어려운 질문을 할 경우에는 챗GPT가 시리 대신 답변을 해줄 수 있다. 시스템 전반에 적용된 쓰기 도구에도 통합돼 글을 쓸 때도 챗GPT의 도움을 받을 수 있게 된다. 그리고 계정을 생성하지 않고도 챗GPT에 무료로 액세스할 수 있으며, 챗GPT 구독자라면 계정을 연결해 애플 기기에서 바로 유료 기능들을 이용할 수 있다.
2) ’GPT-4o’, 유명 배우의 목소리 사용 논란
그러나 GPT-4o가 너무 인간과 유사했던 탓인지, 이와 관련된 논란도 발생했다. 바로 美 유명 배우 스칼렛 요한슨(Scarlett Johansson)의 목소리를 모방했다는 것이다.
GPT-4o는 총 5개 버전으로 음성 서비스를 제공하는데, 그중 하나인 ‘스카이(Sky)’의 음성이 ‘13년 개봉한 영화 ‘그녀’의 음성 비서인 ‘사만다’의 목소리를 담당한 스칼렛 요한슨과 유사하다는 지적이 나왔다. 이러한 지적에 대해 오픈AI는 블로그를 통해 스카이의 음성이 의도적으로 스칼렛 요한슨의 목소리를 모방했다는 점을 부인했다. 오픈AI는 “AI의 목소리가 유명인의 독특한 목소리를 의도적으로 모방해서는 안 된다고 생각한다.”라며 “스카이의 목소리는 스칼렛 요한슨을 모방한 게 아니라, 원래 자연스러운 말투를 사용하는 다른 전문 배우의 목소리”라고 주장했다. 다만 개인정보보호를 위해 성우의 이름을 밝힐 수는 없다고 덧붙였다. 이와 함께 오픈AI는 스카이를 포함한 5개의 음성을 선정하기 위해 총 5개월 동안 캐스팅과 녹음 과정을 거쳤다고 설명했다.
하지만 스칼렛 요한슨은 오픈AI의 해명에 대해 수긍하지 않으며 강경하게 대응하고 있다. 그는 성명을 통해 “오픈AI의 샘 알트만 CEO가 지난해 9월 GPT-4o에 목소리를 빌려줄 의향이 있는지 물으며 기술에 익숙하지 않은 사람들에게 위로가 될 것이라고 말했다.”라며 “많은 고민 끝에 개인적인 이유로 제안을 거절했다.”라고 전했다.
여기에 더해 GPT-4o 발표 이틀 전 샘 알트만 CEO에게 제안을 다시 생각해달라고 요청을 받았는데, 이를 재차 거절했음을 밝혔다. 그리고 스칼렛 요한슨은 “공개된 데모를 들었을 때 오픈AI가 내 목소리와 아주 비슷하게 들리는 목소리를 사용한다는 사실에 충격과 분노를 느꼈다.”라며 “가장 가까운 친구와 뉴스 매체도 차이를 구분할 수 없을 정도로 비슷했다.”라고 비판했다. 이에 오픈AI는 GPT-4o의 5가지 음성 서비스 중 스카이의 사용을 중단시키기로 결정했다. 다만 최근 AI로 인한 딥페이크(Deep fake), 딥보이스 (Deep voice)에 대한 우려가 커지고 있는 가운데, AI 분야를 주도하는 오픈AI에서 이러한 논란이 발생함에 따라 관련된 우려가 더욱 커지고 있는 상황이다.
04. 마무리
GPT-4o는 공개되고 얼마 지나지 않았음에도 불구하고 모든 AI 모델의 한계로 지목됐던 속도 이슈와 명령어 이해 능력 등을 해결했다는 평가를 받으며 관련 업계의 새로운 기준으로 떠오르고 있다. 구글의 아스트라(Astra), 메타의 라마3(Llama3), 앤스로픽의 클로드3(Claude3) 등 수많은 기업들이 AI 모델을 지속 출시하고 있지만 유독 GPT-4o에 많은 이목이 집중되는 데는 이유가 있다.
그 이유는 바로 GPT-4o가 강조하는 멀티모달이 가지고 있는 인식 방법 변화에 있다. GPT-4o는 자연어와 오디오 및 이미지, 비디오를 모든 조합으로 입력해 인식하고, 다시 조합해 데이터를 산출한다. 즉 어떤 이미지에 대해 물으면 텍스트로 답하고, 소리를 들으면 어떤 소리인지 말로 설명하는 방식으로 데이터에 접근한다. ‘이글루’라는 단어를 예로 들면 인간은 사고를 통해 자연어를 북극의 에스키모들이 거주하는 건물 형태 중 하나로 인식하는 멀티모달을 수행하지만, AI에게 있어 ‘이글루’는 이글루라고 규정된 데이터를 식별하고 연결하는데 쓰이는 코드에 불과하다. 여기에 멀티모달을 적용하면 텍스트 정리를 넘어서 시각적 데이터를 통해 형태나 유형, 관련된 이미지와 동영상 등을 통한 자료의 데이터를 서로 연결하고 상호작용해 설명한다. 그리고 단순히 설명에 그치지 않고, 각각의 데이터를 세세하게 유기적으로 연결하고 관리해 결과의 품질을 끌어올린다. 이를 통해 실제 인간과 소통하는 듯한 느낌을 제공해 AI와 인간 간의 패러다임을 바꿀 것이라는 평가를 받고 있는 것이다.
[그림 9] ‘이글루(IGLOO)’에 대한 멀티모달 적용 관련 이미지
다만 GPT-4o가 불러온 혁신의 바람 속에는 위험성 역시 내포되어 있었다. 지난 2월, 리서치 기관 가트너(Gartner)는 AI를 활용한 딥페이크·딥보이스 공격 등으로 기업의 30%가 신원 확인 및 인증 솔루션을 더 이상 단독으로 신뢰할 수 없게 될 것이라는 보고서를 발표했다. 이러한 전망과 함께 실제로 GPT-4o의 5가지 음성 서비스 중 ‘스카이’가 스칼렛 요한슨의 음성을 모방했다는 이슈가 발생해 서비스가 중단되는 사태가 벌어진 만큼, 기술의 혁신에는 필연적으로 위험성 또한 함께 동반한다는 점을 잊지 말아야 할 것이다.
05. 참고자료
‘모든 것’의 AI GPT-4o의 새 패러다임, 주간조선
https://weekly.chosun.com/news/articleView.html?idxno=34846
오픈 AI, 새 AI 모델 GPT-4o 공개, Byte:
https://www.mydailybyte.com/post/%EC%98%A4%ED%94%88-ai-gpt-4o
목소리 갖게 된 AI…감정까지 파악하는 ‘음성 비서’ 눈앞, 한국경제:
https://www.hankyung.com/article/2024052748071
‘AI 비서’ 대격돌… ‘GPT-4o’ 맞설 ‘프로젝트 아스트라’ 공개, 동아일보:
https://www.donga.com/news/Economy/article/all/20240515/124949390/1
렐루게임즈, AI 추리 게임 출시…GPT-4o 도입으로 시나리오까지 진행, AI타임스:
https://www.aitimes.com/news/articleView.html?idxno=160090
GPT-4o·제미나이, 아이폰 채택되나…애플 AI전략 ‘주목’, 이데일리”
https://m.edaily.co.kr/news/read?newsId=01922086638889248&mediaCodeNo=257
오픈AI, 스칼릿 조핸슨 목소리 논란에… “GPT-4o 음성 일시 중단”, 연합뉴스:
https://www.yna.co.kr/view/AKR20240521003100091
GPT4o와 GPT4 비교해 보니··· ‘사람 대 AI의 근본적인 접근 방식 바꿔’, 동아일보:
https://www.donga.com/news/It/article/all/20240521/125038885/1
‘삼성전자-구글 VS 애플-오픈AI’, 모바일 AI 패권경쟁 시작됐다, 비지니스포스트:
https://www.businesspost.co.kr/BP?command=mobile_view&num=355110