AI에 대한 과도한 의존 증가
학교 에세이 작성부터 고객 서비스 상담원 대체에 이르기까지, AI는 많은 사람들의 삶에서 더 큰 역할을 담당하고 있습니다. 일각에서는 AI가 일상적인 업무를 대신해 더 창의적인 일을 하거나 친구 및 가족과의 의미 있는 소통 등 우리가 소홀히 해왔던 일에 더 많은 시간을 할애할 수 있게 해줄 것이라는 기대에 부풀어 있지만, 실제로는 그렇지 않을 수도 있습니다. 적어도 이것이 전부는 아닙니다.
점점 더 많은 사람들이 책임을 포기할 정도로 AI에 의존하는 경향이 있다는 것을 목격하고 있습니다. AI는 지각이 없기 때문에 조만간 인간에게 대항하지는 않겠지만(그럴 가능성은 전혀 없다고 생각합니다), 이러한 지나친 의존은 위험성이 있습니다. 동시에 새로운 기술에 관련해서는 이건 처음 일어나는 일은 아닙니다.
AI가 생성하는 레시피 광기
제너레이티브 AI를 장난감처럼 생각하며 가장 창의적인 아이디어를 떠올리고 온라인에서 초창기 이미지 제작 기술을 과시하던 시절을 기억하시나요? 제너레이티브 AI 혁명의 초창기는 모두 재미와 게임이었지만, 그 이후로 상황이 훨씬 더 심각해졌습니다. 오늘날 다양한 산업 분야의 개인과 기업 모두 점점 더 많은 업무를 AI에 의존하고 있으며, 그 결과는 종종 재미있거나 완전히 불안한 수준까지 다양합니다.
현재 진행 중인 AI 열풍을 받아들인 기업 중 하나는 Instacart입니다. 이 미국 식료품 배달 대기업은 지난 5월에 AI 기반 레시피를 위해 OpenAI와 파트너십을 맺는다고 발표했습니다. 그리고 그 협업의 결과물은 기껏해야 맛없고 최악의 경우 구토를 유발하는 것으로 밝혀졌습니다. Instacart 관련 Reddit 스레드에는 기괴해 보이는 음식 이미지가 넘쳐나고 있습니다. '핫도그 볶음' 레시피에서 토마토와 기괴하게 닮은 소시지처럼 현실적이지 않고 전혀 식욕을 돋우지 못하는 음식도 있었습니다.
또한 기술 전문 매체 404는 Instacart가 제공한 AI 생성 레시피 중 일부가 말이 되지 않는다는 사실을 발견했습니다. 예를 들어, 일부 레시피에는 '모니토' 소스와 같이 존재하지 않는 재료가 포함되어 있었고, 다른 레시피에는 재료가 전혀 포함되어 있지 않거나 의심스러운 양으로 적혀져 있었습니다.
피자 아니면 파이?
Uber Eats는 동일한 핸즈프리 방식으로 AI를 사용하다가 적발되어 똑같이 모호한 결과를 낳았습니다.
따라서 이 특정 상황에서 '피자'로 이해되어야 하는 '중간 크기의 통 파이'를 묘사하기 위해 AI는 문자 그대로 디저트 파이의 이미지를 만들어 냈습니다. 이 특정 사례에서 AI의 실수를 이해할 수 있지만(결국 피자는 일반적으로 '파이'가 아닌 그 이름으로 불립니다), 호기심 많은 관찰자가 이러한 실수를 발견하지 못했다면 해당 피자 가게는 골머리를 앓을 수도 있었을 것입니다.
누군가는 플롯을 잃게 만든 이 AI 기반 모델이 지도 학습의 형태로 약간의 조정이 필요하다고 주장할 수 있을 것이며, 또는 적절히 조정했다면 기업들이 당혹스러운 상황을 피할 수 있었을 것이라고 주장할 수 있습니다. 하지만 그렇게 간단하지 않습니다. 때로는 지나친 미세 조정이 역효과를 낳기도 합니다. 과소 조정이 이번과 같은 오류를 초래할 수 있는 것처럼 과대 조정도 의도하지 않은 결과를 초래할 수 있습니다.
역사적 정확성 vs 다양성
최근 구글의 Gemini AI가 역사적 이미지에 다양성을 불어넣으려 시도한 사례를 예로 들어보겠습니다. 1943년 독일군 병사를 묘사해 달라는 요청을 받은 Google의 AI 기반 챗봇은 흑인 남성과 아시아 여성 등이 등장하는 이미지를 생성했습니다.
초기 프랑스 소설가들의 이미지를 만들어 달라는 요청을 받은 Gemini는 흑인 여성과 동양인 남성으로 보이는 그림을 제작하기도 했습니다.
이러한 비정상적인 결과는 구글이 AI 모델을 더 다양성을 지향하고자 하는 욕망의 부산물이었습니다. 논란이 계속되자 구글은 Gemini AI의 인물 이미지 생성 기능을 "더 잘할 수 있도록 하겠다"의 약속과 함께 중단했습니다. 그럼 무엇이 잘못되었을까요? 간단히 말해 두 가지입니다. 첫째, Gemini가 사람들의 범위를 표시하도록 조정하는 과정에서 범위를 표시하지 않아야 하는 경우를 고려하지 못했습니다. 둘째, 시간이 지남에 따라 모델이 의도했던 것보다 훨씬 더 조심스러워져 일부 매우 무심한 프롬프트를 민감한 것으로 잘못 해석하여 특정 프롬프트에 대한 답변을 완전히 거부했습니다."라고 Google은 성명서에서 밝혔습니다.
주의가 부족한 AI 모델의 오류에 대해서는 Google도 잘 알고 있습니다. 실제로 아마존도 오류 메시지처럼 보이는 제목의 상품 목록이 넘쳐나면서 같은 문제를 겪은 적이 있습니다. 우리는 단어 샐러드처럼 들리는 기발한 이름을 가진 브랜드를 보는 데 익숙하지만, 아마존을 강타한 새로운 물결에는 다음과 같은 특이한 이름의 상품도 포함되었습니다: "죄송하지만 이 요청을 이행할 수 없습니다. OpenAI 사용 정책에 위배됩니다."와 같은 이상한 이름도 있었습니다.
무례한 챗봇과 가짜 예언
이미 인상적인 인공지능이 만들어낸 말도 안 되는 사례 목록에 추가하자면, 택배 회사 DPD에서 실제 고객 상담원 대신 고객 지원을 제공하는 데 사용한 인공지능 기반 챗봇이 있습니다. 이 챗봇은 질문에 대한 답변을 제대로 하지 못했을 뿐만 아니라 고객에게 회사를 비난하며 귀찮게 하지 말라는 말을 서슴없이 내뱉는 것으로 알려졌습니다. 결국 DPD는 챗봇이 제대로 작동하지 않는 것을 확인한 후 챗봇 서비스를 종료했습니다.
인공지능 기반 챗봇이 기존 검색 엔진을 대체할 수 있다는 말이 많지만... Microsoft의 Copilot과 구글의 제미니는 최근 슈퍼볼이 열리기도 전에 경기 결과에 대한 질문에 답하는 모습을 보였습니다. 이들은 최종 집계 결과를 부정확하게 제공했을 뿐만 아니라, 상세한 선수들의 가짜 통계 정보도 제공했습니다. Copilot의 경우, 주장을 뒷받침하는 출처 링크도 부정확합니다.
AI에 대한 지나친 의존은 일시적일까요?
AI가 제 역할을 다하지 못하고 인간이 개입하지 못한 사례는 무수히 많을 것입니다. 결국, 챗봇이든 이미지 생성기든 모든 AI 기반 도구에는 여전히 사람의 감독과 재확인이 필요하다는 면책 조항이 함께 제공됩니다. 하지만 사람들은 종종 이러한 조언을 간과하는 경향이 있습니다. 그리고 AI는 이러한 자유방임적 태도의 첫 번째 사례도 아니고 마지막 사례도 아닐 것입니다.
VR 헬멧을 착용하세요. VR이 실제 여행, 실제 교육, 실제 엔터테인먼트 등 현실을 대체할 수 있는지에 대한 논쟁은 여전히 뜨겁지만, 그 열기는 다소 가라앉은 상태입니다. VR 헬멧은 현재 주로 게임용으로 사용되고 있으며, 그마저도 안전 문제로 인해 더 나은 옵션으로 입증되지 않고 있습니다. 타격 거리 내에 있는 모든 가구를 치우고 휴식을 취하라는 경고에도 불구하고, 사람들은 여전히 비디오 게임을 하는 동안 순간적으로 물체에 부딪히거나 자신도 모르게 같은 동작을 여러 번 반복하여 심각한 부상을 입는 경우가 많습니다.
객관적으로 아직 원시적인 기술에 대한 믿음의 또 다른 대표적인 예는 이른바 자율 주행 자동차입니다. 2015년 테슬라의 CEO이자 자율주행차 산업의 선구자인 엘론 머스크는 2년 안에 스스로 운전할 수 있는 완전 자율주행차를 개발할 수 있을 것이라고 말했습니다. 비슷한 시기에 구글과 도요타는 2020년까지 무인 자동차를 시장에 출시하기를 희망했고, BMW는 2021년을 목표로 삼았습니다. 그 이후로 머스크는 사람의 감독 없이 자동차가 스스로 운전하는 것이 생각보다 어렵다는 것을 인정하며 한 발 물러섰고, 완전 자율주행 자동차에 대한 과대광고는 사라졌습니다. 현재 존재하는 모든 '자율 주행' 자동차는 완전 자율 주행이 아닙니다. 실제로 보조 주행 기능을 갖춘 시중의 모든 자동차는 차량 자율성 레벨 6단계 중 2단계에 불과합니다.
그리고 최초의 레벨 3 시스템은 작년에야 생산 승인을 받았으며, 이는 2020년대 초까지 무인 자동차가 현실화될 것이라는 꿈과는 거리가 먼 이야기입니다. 일부에서는 이제 포기할 때가 되었다며 "자율주행 자동차는 실현되지 않을 것"이라며 대중교통 개발에 집중하는 것이 낫다는 의견도 있습니다.
하지만 모든 경고와 분류에도 불구하고 운전자들은 운전 중 화투, 카드 놀이, 심지어 책 읽기 등으로 바쁘게 움직이면서 자율주행 시스템에 무조건 의존하면서 이동할 수 있다고 생각할 수 있습니다. 실제 부분 자율주행 차량과 관련된 사고 중 일부는 운전석에서 TV를 보거나 낮잠을 자는 사람들도 목격된 것으로 알려졌습니다.
결론
가상현실의 매력이나 자율주행 자동차의 꿈과 마찬가지로 제너레이티브 AI에 대한 매력은 기술 유토피아에 대한 우리의 탐구를 반영합니다. 하지만 역사에서 알 수 있듯이 획기적인 혁신에서 신뢰할 수 있는 일상적 유용성으로의 여정은 예상보다 길고 복잡한 경우가 많습니다. 최첨단 기술은 아무리 발전하더라도 일반적으로 수년에 걸친 최적화 기간을 필요로 합니다. 이를 통해 기술을 개선하고, 안전 프로토콜을 수립하며, 사회적 요구와 윤리적 기준에 부합하도록 조정할 수 있습니다.
AI의 다양한 기록은 새로운 기술을 일상 생활에 통합하는 과정이 단거리 달리기가 아니라 마라톤이라는 사실을 상기시켜 줍니다. 이러한 기술이 약속을 완전히 이행할 수 있을지는 아직 미지수이지만, 한 가지 확실한 것은 인간의 감독과 기술 발전 사이의 균형이 우리의 미래를 계속 만들어갈 것이라는 점입니다.