정보통신 IT/정보 Info

생성형 AI 거품, 과장된 인공지능(AI), 챗GPT, AI 프로젝트의 80% 이상 실패

Jobs 9 2024. 10. 29. 07:22
반응형

 

 

생성형 AI 거품

 

 

노벨상 수상자 "AI에 대한 확신 지나쳐…2년 뒤 거품 판명될 것

 

노벨경제학상 수상자이자 내생적 성장이론 분야 대가인 폴 로머 보스턴칼리지 교수가 최근의 인공지능(AI) 붐에 대해 과열을 경고하는 목소리를 내놨다.

로머 교수는 29일 홍콩에서 열린 한 행사에서 블룸버그텔레비전(TV)과 만나 "지금은 AI의 미래 궤적에 대해 확신이 지나치다"면서 "사람들이 AI의 미래를 예상하면서 매우 심각한 실수를 저지를 위험이 있다고 본다"고 말했다. 

몇년 전 가상화폐가 모든 것을 바꿀 것이라는 기대가 있었지만 거품이 붕괴된 것처럼, AI에 대한 과도한 확신으로 같은 실수를 반복할 우려가 있다는 것이다. 

가상화폐 대장주 비트코인 가격은 올해 들어 역사적 신고가를 기록했지만, 앞서 2011년 11월 6만9천 달러에 육박했다가 이후 급락해 2022년 11월에는 1만5천 달러대로 내려간 바 있다.

AI의 경우 오픈AI가 2022년 말 AI 챗봇 챗GPT를 출시한 뒤 대중적인 관심이 고조됐고, 마이크로소프트(MS)를 비롯한 빅테크(거대 기술 기업)들이 컴퓨팅 및 클라우드 분야에 앞다퉈 대규모 투자를 진행 중이다. 

최근에는 AI 붐의 최대 수혜주로 불리는 반도체업체 엔비디아 주가가 급등하면서 시가총액 3위에 올랐으며, 2위 애플을 바짝 추격 중인 상황이다. 

로머 교수는 하지만 현재의 AI 서비스 개선 속도가 무한정 지속될 것으로 보는 것은 위험하다고 경고했다. 

그는 "우리는 컴퓨팅 능력의 확장과 대규모 데이터 수집에 따른 수혜를 봤다. 컴퓨팅 능력의 확장은 매우 쉽다. 더 많은 기계와 반도체만 있으면 된다"면서 "하지만 우리가 향후 충분한 데이터를 확보하지 못할 가능성이 있다"고 말했다. 

그러면서 주요 AI 활용 분야인 차량 자율주행에서 이와 같은 데이터 문제가 나타나고 있다고 우려했다.

테슬라와 같은 업체들이 완전 자율주행에 대해 수년간 공약해왔지만 신뢰성 이슈가 계속 제기되면서 공약 실현이 미뤄지고 있다는 게 블룸버그의 설명이다. 

로머 교수는 "사람들은 2년 후 현 상황을 되돌아보며 '정말 거품이었다. 그 진행 방향에 대해 과대평가했다'고 말할 것"이라고 밝히기도 했다. 

세계은행 수석 이코노미스트를 지내기도 한 로머 교수는 기술혁신이 성장을 이끈다는 내생적 성장이론 연구로 2018년 노벨경제학상을 수상했다. 

 

 

 

생성형 AI 거품


생성형 AI에 대한 과도한 기대와 투자 열풍 논란이 계속되는 가운데, 실제 AI 프로젝트의 성공률은 여전히 낮다는 주장이 나왔다. 

이는 AI 기술의 한계를 드러내는 동시에 보다 실용적이고 체계적인 접근이 더 필요함을 시사한다.

랜드연구소의 최근 보고서에 따르면, AI 프로젝트의 80% 이상이 실패하는 것으로 나타났다. 이는 일반적인 IT 프로젝트 실패율의 두 배에 달하는 수치다. 전문가들은 AI 프로젝트 실패의 주요 원인으로 비즈니스 목표와의 불일치, 데이터 부족, 기술 중심적 접근, 인프라 미비, AI 기술의 한계 등을 지목했다.  

더불어, 가트너의 2023년 보고서는 AI 프로젝트 85%가 실패한다고 밝혔으며, IBM의 조사에 따르면 기업의 78%가 AI 도입에 어려움을 겪고 있다고 응답했다. 이러한 통계는 AI 기술의 잠재력과 실제 적용 사이의 격차를 명확히 보여준다. 


한편, 생성형 AI 열풍을 주도했던 기업들의 주가도 등락을 계속하고 있다. 엔비디아와 마이크로소프트, 아마존 등은 올해 들어 최고점과 20~30% 하락을 오갔다. 

가트너의 하이프 사이클에 따르면, 생성형 AI는 현재 '부풀려진 기대의 정점'에서 '환멸의 계곡'으로 접어드는 과정에 있는 것으로 보인다. 이는 새로운 기술이 등장했을 때 사람들이 과도하게 흥분하고 비현실적인 기대를 갖는 시기에서 기술의 한계를 인식하고 현실적인 기대치를 갖게 됨을 의미한다.

그러나, 이는 기술 자체가 무용하다는 뜻이 아니라, 오히려 기술이 성숙해지고 실제 적용 사례가 늘어나는 과정의 일부로 해석해야 한다. 실제로 생성형 AI의 성공적인 적용 사례도 증가하고 있다. 

예를 들어, 맥킨지의 2023년 보고서에 따르면, 생성형 AI를 도입한 기업의 40%가 생산성 향상을 경험했으며, 28%가 비용 절감 효과를 보았다고 한다. 

구체적인 사례로, 의료 분야에서 생성형 AI는 진단 정확도 향상에 기여하고 있다. 스탠포드 대학 연구에 따르면, AI 보조 진단 시스템이 의사의 유방암 진단 정확도를 약 5% 향상했다. 또한, 금융 분야에서 JP모건이 생성형 AI를 활용해 고객 서비스 응답 시간을 20% 단축했다고 보고했다. 

기술사학자 카를로타 페레즈는 혁신적 기술이 실제 경제 성장으로 이어지기 위해서는 '두 번째 기술 혁신의 물결'이 필요하다고 주장한다. 이는 AI 기술을 실제 비즈니스 프로세스에 통합하고 조직 구조를 재편하는 과정을 의미한다. 

전문가들은 AI 도입을 위해 점진적이고 실용적인 접근법을 제안한다. UPS의 사례는 이러한 접근법의 유효성을 보여준다. UPS는 AI 기반 배송 최적화 시스템을 도입하는 과정에서 단계적이고 신중한 접근을 취했다. 그 결과 초기의 저항을 극복하고 연간 2억 달러 이상의 비용 절감 효과를 거두었다. 

현재 시장에서는 AI에 대한 과도한 기대는 가라앉고 있지만, 이는 오히려 더욱 체계적이고 실용적인 AI 도입의 계기가 될 수 있다. 딜로이트의 2023년 조사에 따르면, 기업의 79%가 AI를 전략적 우선순위로 삼고 있으며, 94%가 AI가 향후 5년 안에 비즈니스 모델을 크게 변화시킬 것이라고 예상하고 있다. 

기업은 AI를 통한 실질적 성과 창출을 위해 장기적 안목을 가지고 조직 변화와 함께 접근해야 할 것이다. AI 거품은 꺼지고 있지만, 올바른 전략을 통해 AI의 실질적 혜택을 누릴 수 있는 시대가 도래하고 있다. 이는 기술의 성숙과 함께 더욱 현실적이고 지속 가능한 AI 혁신의 시작을 의미한다.
 




인공지능, 거품 
과장된 인공지능(AI)

알파고 이후 한동안 수면 밑에서 조용히 연구개발되던 인공지능(AI)이 챗GPT의 등장으로 다시 한번 관심과 기대가 폭발하는 양상이다. 거기에 로봇까지 인공지능이 탑재되어서 금방이라도 인간 노동자는 불필요한 시대가 될 것 같은 이야기가 공공연히 기사화되고 인용되고 있다. 

심지어 인간 고유영역으로 생각해 온 창작과 예술의 영역까지도 인공지능이 대체할 것처럼 떠들어 대고, 소설 에세이 회화 같은 그림 그리기도 곧 AI가 하게 될 것이라고 흥분한다. 정말 조만간 그렇게 될까? 

소설 창작 또는 스토리텔링이라는 것을 살펴보자. 어떤 주제를 가지고 어떤 소재로 어떤 시대적 공간적 배경에서 이야기를 어떻게 풀어 나갈지에 대한 구상을 먼저 해야 한다. 이게 시간과 에너지를 엄청 잡아먹는 일이라는 것은 글 좀 써본 사람이라면 누구나 알고 있다. 어느 정도 생각이 정리된 다음엔 이제 컴퓨터를 켜서 자판을 두들기기 시작한다. 초고를 완성하고 난 다음엔 대개 조금 묵힌(?) 다음 다시 수정작업을 한다. 만족할 때까지. 그리고 편집자에게 보낸 다음 지적 당한 부분을 자의 반 타의 반 고쳐야 한다. 수정, 수정, 수정. 스토리를 탄탄하게 하기 위해, 감동을 더 효과적으로 전달하기 위해. 억지스러운 비약을 덜어 내기 위해. 이런 지난한 과정을 거쳐야 책 한 권이 겨우 세상에 나올 수 있다. 

그러면, 창작 과정은 어디서부터 어디까지를 창작이라고 할 수 있을까? 창작자가 컴퓨터 앞에 앉아서 초고를 타이핑하는 그 작업만을 창작활동이라고 할 수 있을까? 

챗GPT가 할 수 있는 것은 특정 주제에 대한 일반론 수준의 의 밋밋한 초고를 제시해 주는 정도이다. 물론 이것도 도움이 될 수 있다. 하지만 이 초고 만들기가 창작에서 차지하는 비중은 얼마나 될까? 20%? 30%? 

인공지능이 마크 트웨인의 문체와 스타일을 흉내 내서 그럴싸한 이야기를 만들어 낼 수는 있어도 마크 트웨인이 노인과 바다에서 수백 번의 수정 작업을 거치며 담아내고자 했던 인간 실존의 고뇌는 담아내지 못한다. 

"인간은 패배하도록 창조된 게 아니야. 인간은 파멸당할 수는 있을지 몰라도 패배할 수는 없어" 
- 노인과 바다, 마크 트웨인

인공지능은 인간이란 좌절 속에서도 끝내 패배하지 않기 위해 다시 일어서는 운명론적 존재라는 마크 트웨인의 철학적 고뇌를 이해하지 못할 것이다. 물론 인공지능은 마크 트웨인처럼 우울증 끝에 엽총으로 자살을 하지도 하지 않을 것이고.
두 번째로 인공지능이 가장 빨리 대체할 것이라는 프로그래밍에 관해 살펴보자. 

이미 ChatGPT나 코파일럿 등 AI 툴이 개발 현장에서 많이 활용되고 있다. (과거에 코드 탐색은 주로 구글링이었지만....)

개발 프로세스를 잠깐 살펴보자. 특정 업무를 IT 시스템으로 개발하려면 일단 현장에 가서 그 업무를 어떻게 하고 있는지 비즈니스 프로세스를 살펴보고 이해해야 한다. 

그 과정에서 IT 기술로 구현하면 자동화될 것들은 무엇이고 여전히 인간이 개입해서 key-in 해야 하는 것들은 무엇이고 등등 각각의 프로세스를 세밀하게 정의한 다음 IT 시스템으로 구현할 프로세스를 설계해야 한다. 이 과정이 꽤나 지난하고 어렵다. 하지만 일단 프로세스가 잘 정의되고 상세설계까지 하고 나면 코딩은 사실 일사천리가 된다. 

물론 개발 과정에 여러 프로세스가 엉키면 나중에 다시 재설계하기도 하고 결함이 생기면 디버깅이라는 어려운 재작업을 하는 경우도 생기기도 한다.

요지는 전체 과정에서 코딩이라는 물리적인 프로그래밍 작업이 차지하는 비중이 전체 개발 과정에서 대략 20% 또는 많아야 30% 선이라는 것이다. 이걸 AI가 지원해 준다고? 좋긴 한데 만약 AI의 도움을 받아서 코딩 작업의 생산성이 30% 좋아졌다 해도 전체 과정에서는 대략 10% 미만의 개선이 일어난 정도에 불과하다.

인공지능이 얼마나 인간의 노동을 대체할 수 있는지를 창작과 코딩 두 가지 예로 살펴보았다. 두 과정 모두 나름의 복잡한 준비와 기획과정, 개념과 방향을 잡는 사전 준비 작업이 선행되어야 한다. 그리고 난 다음에 뭔가를 만들어 낸다. 창작과 코딩의 경우에는 프로토타입을 만든 다음 또 지난한 수정작업과 재작업을 거쳐야 한다. 

즉 1차 창작 자체는 전체에서의 비중이 10~20% 미만이고 이 분야를 AI가 대체하기도 어렵지만 대체한다고 해도 나머지 80~90%의 일은 인간이 여전히 해야 한다. 인공지능이 인간의 노동을 대체하게 될 것이라는 전망이 비현실적이고 과장된 기대라는 이유이다.

언론이나 미디어에서 인공지능과 로봇에 대해서 너무 과하게 포장하고 심지어 테크와 관련된 일을 하는 분들도 이 엄청난 과장과 과한 마케팅에 대해서 입을 다물고 있다. 

챗GPT가 특정 주제에 대해서 접근하는 방식은 인간이 생각하는 것과는 다른 방식을 취한다. 많은 데이터를 통해 학습된 알고리즘으로 통계적으로 가장 확률이 높은 관련 단어들을 순차적으로 배열해 내고 있을 뿐이다. 그 방식이 프로그램 랭귀지가 아닌 자연어라는 우리가 쓰는 언어형태이고 또 거기다 대화형이다 보니 우리가 쉽게 착각하는 것일 뿐이다. 쌍방향 소통을 하다 보면 무의식적으로 우리는 자기도 모르게 상대방 즉 AI를 의인화하기 쉽다. 

그럼 앞으로 계속 발전하면 결국 인간처럼 자의식을 갖게 되고 지능을 갖게 될까?

현재로선 당분간 불가능해 보인다. 왜일까? 우리는 아직 인간이 어떻게 자의식을 형성하고 생각의 구조를 만들며 학습을 해서 지능을 만들어 가는지, 정확히 알지 못한다. 느낌과 감정은 어떻게 형성되고 그것이 이성과 어떻게 상호작용해서 지능과 인성, 인격이 만들어지는지도 아직 잘 모른다. 뇌과학이나 정신과학이 발전하면서 조금씩 알아 나가겠지만 아직도 갈 길이 멀다. 

자신도 잘 모르는 것을 어떻게 학습시킬 수 있으며  하물며 그것을 어떻게 만들어 낼 수 있겠는가? 나에겐 원숭이에게 타자기 두드리는 훈련을 시키다 보면 어느 날 햄릿을 써낼 수 있게 될 거라는 이야기와 비슷하게 들린다. 안된다는 이야기다. 

AI나 로봇 개발에 종사하는 많은 개발자분들과 엔지니어들의 노력을 폄하할 생각은 없다. 그들의 노력으로 인간이 해야만 했던 많은 일들이 어찌 되었든 부분 부분적으로 빠르게 자동화되거나 AI로 대체될 것이다. 그런 노력과 기술의 진보가 인류가 살아가기 더 편하고 편리한 세상을 만들어 나가는 데, 기여할 것이라는 데에는 이견이 없다. 

다만 인공지능과 로봇에 대한 너무 과장된 주장과 마케팅이 단기 실망으로 이어져 오히려 이 분야에서 노력하는 연구자와 엔지니어에게 어려움을 가져오고, 인공디능 기술이 침체되거나 외면받지 않을까, 기우를 하게 된다.

 

 

 

The Generative AI Bubble Will Collapse in 2025

Generative AI took the world by storm in November 2022, with the release of ChatGPT. 100 million people started using it, practically overnight. Sam Altman, the CEO of OpenAI, the company that created ChatGPT, became a household name. And at least half a dozen companies raced OpenAI in effort to build a better system. OpenAI itself raced to outdo “GPT-4”, their flagship model, introduced in March of 2023 with a successor, presumably to be called GPT-5. Virtually every company raced to find ways of adopting ChatGPT (or similar technology, made by other companies) into their business. 

There is just one thing: Generative AI, at least we know it know, doesn’t actually work that well, and maybe never will. 


I’ve always thought GenAI was overrated. In a moment, though, I will tell you why the collapse of the generative AI bubble – in a financial sense – appears imminent, likely before the end of the calendar year. 

To be sure, Generative AI itself won’t disappear. But investors may well stop forking out money at the rates they have, enthusiasm may diminish, and a lot of people may lose their shirts. Companies that are currently valued at billions of dollars may fold, or stripped for parts. Few of last year’s darlings will ever meet recent expectations, where estimated values have often been a couple hundred times current earnings. Things may look radically different by the end of 2024 from how they looked just a few months ago. 

First, though: why should you take my prediction seriously?

Here are four bona fides, aside from my training and work experience (e.g., MIT Ph.D., tenure at NYU, built and sold a machine learning company to Uber, etc):

In 2012, in the New Yorker, I pointed out a series of problems with deep learning, including troubles with reasoning and abstraction that were often ignored (or denied) for years, but that continue to plague deep learning to this day – and that now, at last, have come to be very widely recognized.  

In December 2022, at the height of ChatGPT’s popularity I made a series of seven predictions about GPT-4 and its limits, such as hallucinations and making stupid errors, in an essay called What to Expect When You Are Expecting GPT-4]. Essentially all have proven correct, and held true for every other LLM that has come come since. 

Almost exactly a year ago, in August 2023, I was (AFAIK) the first person to warn that Generative AI could be a dud. 

In March of this year, I made a series of seven predictions about how this year would go. Every one of them has held firm, for every model produced by every developer ever since, throughout what is likely the most-capitalized race in history: 

반응형