이 책은 AI가 인간의 판단을 돕는 도구를 넘어, 스스로 해석하고 결정하며 행동하는 경제의 주체로 진화하고 있음을 전제로 새로운 경제 질서의 도래를 설명한다. AI가 리스크 분석과 의사결정을 독립적으로 수행하게 되면서, 시장과 산업에서 핵심적인 판단 주체가 인간에서 AI로 이동하고 있으며, 이러한 변화가 이미 다양한 실제 사례를 통해 현실화되고 있음을 보여준다.
또한 AI가 인간처럼 말하고 판단하는 시대에 인간이 더 이상 ‘당연한 기준’이 될 수 없다는 점을 짚으며, 인간 인증, 인격 판단, 콘텐츠 출처와 같은 문제를 통해 기술이 인간의 정체성과 사회적 위치를 어떻게 재정의하고 있는지를 구체적으로 다룬다. 동시에 AI가 신뢰를 수치화하고 이를 기반으로 추천, 평가, 기회 배분까지 설계하는 과정을 설명하며, 편리함 뒤에 숨겨진 통제 구조와 새로운 판단 시스템이 우리의 선택과 행동에 어떤 영향을 미치는지 드러낸다.
급변하는 AI 자율경제 속에서 막연한 두려움이나 낙관 대신 현실적인 전략과 기준을 제시하는 이 책을 통해, 변화의 속도에 휩쓸리지 않고 새로운 경제 질서 속에서 개인과 기업이 무엇을 준비해야 하는지에 대한 명확한 방향을 찾을 수 있을 것이다.
■ 저자 윤태성
저자 윤태성은 KAIST 기술경영전문대학원 교수이다. 도쿄대학교에서 ‘AI를 활용한 지능형 기계설계’ 연구로 공학박사 학위를 취득하고 도쿄대학교 조교수를 역임했다. 이후 도쿄에서 소프트웨어 벤처를 직접 창업해 경영하며 기술과 경영이 만나는 최전선에서 경험을 쌓아왔다. 이러한 연구와 현장 경험을 바탕으로, 이 책에서는 AI로 인해 미래 사회와 경제가 어떻게 변화할지를 예측하고, 기업이 생존을 위해 무엇을 어떻게 준비하고 대비해야 할지를 하나씩 살핀다.
저자는 기술이 바꿔놓을 미래를 상상하고 그 미래를 글로 생생하게 그려내는 일을 평생의 즐거움으로 삼고 있다. 주요 저서로 ‘AI 특허 전략’, ‘기술 전쟁’, ‘과학기술은 어떻게 세상을 바꾸는가’, ‘미라클 씽킹’, ‘월급보다 내 사업’, ‘탁월한 혁신은 어떻게 만들어지는가’, ‘고객은 독이다’, ‘한 번은 원하는 인생을 살아라’, ‘지식 비즈니스가 뜬다’, ‘막강 데이터력’ 등이 있다.
■ 차례
[서문] AI 자율로 이어지는 기술의 진화
PART 1. AI 시대의 인간 증명
1. 당신이 인간임을 증명하라
2. 당신의 인격을 증명하라
3. 이 콘텐츠는 누가 만들었나?
PART 2. AI는 인간을 얼마나 신뢰할까?
1. AI는 당신의 의도를 판단한다
2. 신용점수에 당신의 현재 상태가 담겨 있다
3. 신뢰지수가 미래 상태를 판단한다
PART 3. AI는 인간을 어떻게 통제할까?
1. AI가 당신의 행동을 추론한다
2. AI는 당신을 개인화로 통제한다
PART 4. AI 자율이 경제를 바꾼다
1. 시장은 어떻게 변할까?
2. AI 자율경제 시대의 상품 개발 전략
PART 5. AI 자율, 무엇이 위험한가?
1. AI의 윤리는 인간의 윤리와 다르다
2. AI 십계명: AI도 인간에게 윤리를 요구한다
PART 6. AI는 과연 인간을 이롭게 하는가?
1. AI는 인간을 자유롭게 할 수 있을까?
2. AI와의 공존이 일상이 된다
3. AI는 파괴의 도구가 될 수 있다
[발문] AI 자율경제의 확장은 계속된다
참고 문헌 및 출처
그림 및 도식 출처
AI는 빠르게 진화하고 있다. 이제 AI는 인간의 명령을 수행하는 도구가 아니라, 스스로 판단하고 행동하는 존재가 되고 있다. 《AI 이후의 경제》는 이 변화가 어디까지 이어질지를 묻는다. 기술의 진보를 넘어, 산업과 시장, 그리고 인간의 역할이 어떻게 달라지는지를 살핀다.
AI 이후의 경제
AI 시대의 인간 증명
당신이 인간임을 증명하라
인간보다 더 인간 같은 AI의 등장
“당신은 인간인가?”
당신이 온라인에 접속하면 AI가 가장 먼저 던지는 질문이다. 온라인에서 인간과 AI를 구분하기 어렵기 때문에 AI가 가장 궁금해하는 것도 이 질문이다. 인간은 생물학적 종인 호모 사피엔스를 지칭한다. 모든 인간은 출생과 함께 이 분류에 속한다. 식물인간처럼 의식이 없어도 생물학적으로 인간이다. Al 가 당신에게 인간인지 증명하라고 요구한다면 이는 당신이 생물학적으로 인간인지 알고 싶다는 뜻이다. 감정이나 신체처럼 모든 인간에게 있는 공통의 특성을 보일 수 있다면, 당신은 인간임을 증명할 수 있다.
- 인간임을 증명하지 못하면 온라인에 머물 수 없다
AI 자율을 이야기하면서 가장 먼저 인간을 이야기한 이유는 간단하다. AI가 가장 중요하게 여기는 인식 대상이 바로 인간이기 때문이다. 온라인에서 활동하는 주체는 인간만이 아니다. 오히려 인간이 아닌 주체가 훨씬 더 많다. 온라인에서는 이미 인간보다 AI의 활약이 더 두드러진다. 인간보다 AI가 더 많은 댓글을 달고 콘텐츠를 올린다. AI는 인간인 척하며 댓글을 자동으로 대량생산해서 여론을 조작하거나, 가짜뉴스를 유포하기도 한다. 인간도 온라인에서 댓글을 달거나 이미지를 만들 수 있지만 AI는 훨씬 더 빠르게 더 많이 만든다. 온라인에서 입수한 사진과 영상은 그것이 인간이 촬영한 것인지, 아니면 AI가 딥페이크로 조작한 것인지 쉽게 구분하기 어렵다. 인간은 AI가 만든 이미지나 문장을 점점 더 구분하지 못한다. 그래서 댓글을 달거나 영상을 올리는 주체가 인간임을 증명하라고 요구하는 사이트가 늘고 있다.
그러므로, 만약 당신이 인간이라는 사실을 증명할 수 없으면 온라인에서 활동할 수 없다. AI가 당신을 인식할 수 없으면, 당신은 온라인에서 원하는 목적을 이루지 못한다. 당신은 AI에 당신이 인간이며 특정인이라는 신원을 증명할 수 있어야 한다. 그렇지 못하면 당신은 AI가 제공하는 어떤 서비스도 받을 수 없고 결국 사회에서 배제된다.
- 튜링 테스트가 더 이상 통하지 않는 이유
인터넷에서 찾은 문장이나 악보 역시, 이를 작성한 주체가 인간인지 AI인지 인간은 구분하기 어렵다. 인간과 AI를 구분하기 위해 전통적으로 튜링 테스트를 사용한다. 튜링 테스트는 1950년 영국 수학자 앨런 튜링(Alan Turing)이 제안한 방법이다. 인간이 기계와 대화를 나눴을 때, 상대가 기계라는 사실을 알아차리지 못하면 그 기계는 인간처럼 생각할 수 있다고 간주한다. 튜링 테스트를 통과했다고 해서 AI가 인간과 같거나 인간보다 더 높은 지능을 가졌다는 의미는 아니다. 하지만 요즘은 AI가 인간보다 더 인간적이라 오히려 튜링 테스트를 통과하지 못하는 사례가 등장했다.
2024년 조지아대학교 연구진이 실험한 내용이다. 학부생과 AI에 질문을 제시한 후에 대답은 서면으로 제출하라고 요청했다. 연구진은 대답을 모은 뒤 어느 쪽의 대답이 더 도덕적이라고 생각하는지 인간에게 물었다. 결과는 놀라웠다. AI가 생성한 대답이 인간이 한 대답보다 훨씬 도덕적이라는 평가가 많았다. AI가 너무 도덕적인 대답을 하는 바람에 오히려 인간답지 않다는 반응도 나왔다. AI가 인간보다 더 인간적인 대답을 하는 시대다.
증명하지 못하면 배제된다
AI인지 인간인지 구분하기 어려워지면서 역튜링 테스트가 등장했다. 튜링 테스트가 인간이 AI와 인간을 가려내는 방식이 라면, 역튜링 테스트는 AI가 인간과 AI를 구분한다. 역튜링 테스트의 일종으로 캡차(CAPTCHA)를 많이 사용한다. 캡차는 2003년에 공식적으로 사용하기 시작한 표현인데 ‘인간을 구분하기 위해서 완전히 자동화된 공개 튜링 테스트’라는 문장의 줄임말이다.
- 점점 더 복잡해지는 인간 인증법
지금은 AI가 학습을 통해 캡차를 쉽게 우회할 수 있게 되었다. 캡차를 우회한다는 말은 AI가 인간인 척하고 캡차를 인간이 의도한 방식이 아닌 방법으로 통과하거나 무력화한다는 의미다. 예를 들어 딥러닝 모델은 캡차 데이터를 학습해서 패턴을 익힌다. 이미지 캡차에서 고양이를 선택하라는 문제가 나오면 컴퓨터 비전 기술을 사용해서 우회할 수 있다. 이미지 인식에 딥러닝 모델을 사용하면 인간보다 더 정확하게 이미지를 인식한다.
AI가 캡차를 쉽게 우회하지 못하도록 캡차는 점점 더 복잡해졌다. 이미지와 행동을 동시에 분석하는 다중 인증을 요구하기도 한다. 혹은 문자 메시지인 SMS 인증과 일회용 비밀번호인 OTP 인증을 결합하기도 한다. SMS 인증은 인간이 소유한 본인 명의의 전화번호로 인증 코드를 보낸다. 사용자는 입력창에 인증 코드를 입력해 본인임을 증명한다. OTP 인증은 로그인 시 두 번째 인증 단계를 추가하거나, 사용자에게 이메일을 보내 실제 수신 여부를 확인하는 방식으로도 이루어진다.
- AI 리터러시가 계층을 나눈다
정말 인간이지만 인간임을 인증하지 못하는 상황이 반복되면 그 인간은 온라인 서비스에 접근하지 못하게 된다. 거의 모든 활동이 온라인에서 이루어지는 시대에 온라인 서비스에 접근하지 못하면 이는 곧 사회에서 배제된다는 의미와 같다. 자신이 인간임을 증명하지 못하고 사회에서 배제되는 인간이 늘어나면 AI는 오히려 인간을 인증하는 기준을 강화한다. 그러면 인간 인증의 악순환이 일어난다.
악순환의 결과는 AI 디바이드 현상으로 나타난다. AI 리터러시 교육을 충분히 받은 인간은 자신이 인간임을 증명하기 위해 다양한 방법을 사용할 수 있다. AI에 서투른 인간은 자신이 인간이라는 사실조차 증명하지 못한다. AI 디바이드 현상으로 인해 인간은 사회에 소속된 계층과 사회에서 배제되는 계층으로 나뉜다.
AI는 인간을 어떻게 통제할까?
AI는 당신을 개인화로 통제한다
AI는 모든 인간을 개인화한다
인간이 일일이 말을 하지 않아도 AI가 알아서 하면 편하다는 이유로 AI에 모두 맡기는 인간은 점점 늘어날 전망이다. 지금은 AI와 소통하기 위해 인간이 문장을 입력하거나 음성으로 말해야 한다. 미래에는 인간이 AI에 문장이나 음성으로 요구하지 않아도 된다. 그 대신 카메라로 주변을 비추어 영상을 보여주기만 해도 충분하다. AI는 환경에 스며들어 자연스럽게 행동한다.
- 밤말도 낮말도 AI가 듣는다
개인화는 지금도 활발히 이루어지고 있다. 가장 원시적인 개인화는 AI가 인간의 대화를 엿듣고 광고에 활용하는 사례다. 2021년 아이폰을 사용하는 고객들은 애플을 상대로 집단소송을 제기했다. 아이폰에 들어있는 음성 비서 시리가 고객 몰래 녹음한 데이터를 광고주에게 제공했다는 이유에서다. 광고주는 데이터를 이용해서 고객마다 개인화된 광고를 노출했다. 질환에 관해 대화하면 치료와 관련한 광고가 뜨고 운동화에 관해 대화하면 신발 광고가 뜨는 식이다. 애플은 9,500만 달러의 합의안을 마련하고 화해를 요청했다. 하지만 애플은 개인정보를 무단으로 수집했다는 의혹은 부인했다.
인간의 대화를 엿듣고 이를 개인화된 광고에 활용한 기업은 애플만이 아니다. 2019년 아마존은 인간 수천 명을 고용해서 AI 스피커 알렉사의 녹음 데이터를 분석했다. 아마존은 AI 성능을 개선하기 위해서라고 해명했으나 고객은 이 말을 믿지 않았다. AI 스피커가 개인의 대화를 엿듣고 광고를 띄운다고 의심했다. 개인이 하는 대화를 듣고 맥락에 맞는 상품 광고를 계속 보여주었기 때문이다.
AI가 인간 몰래 음성을 인식하는 작업은 AI 상품을 개발하는 기업이라면 거의 모두 하고 있다고 보아야 한다. 만약 음성 데이터를 공유하고 싶지 않으면 당신은 주변에 있는 모든 기기의 전원을 끌 수밖에 없다. 자동차도 마찬가지다. 테슬라가 판매하는 자동차는 자율주행을 위해 최소 8대의 카메라를 내장하고 있으므로 운전자에 관한 거의 모든 데이터를 수집할 수 있다. AI가 데이터를 분석해서 인간을 도울 수도 있지만 동시에 인간을 감시할 수도 있다. AI는 운전자의 행동을 감시하고 있다가 만약 운전자의 눈이 감기고 졸기 시작한다고 판단하면 즉시 경고를 보낸다.
개인화는 나만을 위한 특별 대우일까?
2025년부터 구글은 사용자가 검색한 기록과 사진을 분석해서 개인화된 답을 제공한다. 구글은 검색 챔피언답게 다양한 서비스에서 사용자가 생성한 데이터를 모아서 학습할 수 있다. 사용자가 맛집을 추천하라고 요구하면 최근에 무엇을 검색했는지 참고해서 답을 생성한다. 사용자가 평소에 인터넷을 사용하는 패턴을 분석하면 개인화에 유리하다.
개인화에 가장 적극적인 분야는 마케팅이다. 고객의 행동과 소비 패턴을 분석해서 개인화 마케팅을 지향한다. 최근에 무엇을 검색했는지 파악하고, 검색 이력과 위치 정보를 결합해서 맞춤형 광고를 보여준다. 특정 상품에 관심을 보이면 관련 상품을 계속 보여준다. 당신이 주고받는 이메일, 문자, 전화, 영상 데이터를 분석해서 당신이 좋아할 만한 상품을 보여준다. 당신이 광고를 클릭하거나 상품을 구매하면 이런 데이터는 그 자체로 기업의 상품이 된다.
마케팅에서는 아무리 개인화를 강조해도 문제가 없다. 당신은 싫으면 광고를 클릭하지 않을 테고 그러면 아무런 변화도 일어나지 않는다. 개인화가 어렵거나 신중하게 접근해야 하는 분야도 있다. 예를 들어 의료는 자칫 잘못하면 생명의 위협으로 이어지기 때문에 개인화를 쉽게 진행하기 어렵다. 다른 환자에게는 처방하지 않는 약을 개인화라면서 당신에게만 처방하기는 어렵다는 의미다.
인간은 개인화에 중독된다
당신이 AI에 맛집을 소개하라고 요구하면 당신의 의도를 알고 있는 AI는 검색 결과를 필터링해서 최적이라고 생각되는 답을 생성한다. AI는 당신이 좋아할 만한 식당 두 곳을 제시한다. 당신은 두 곳을 비교한 뒤에 한 곳을 선택한다. 당신이 일일이 검색해서 비교하는 것보다 확실히 편하다. 이런 작업은 설탕과 같다. 한 번 먹으면 달콤하지만 계속 먹으면 건강을 해친다.
- AI가 만든 투명한 감옥, 필터 버블
AI는 개인화라는 명분으로 당신이 좋아할 만한 내용을 보여준다. 당신은 편하다는 이유로 개인화를 받아들인다. AI는 개인화를 통해 당신을 특정한 방향으로 유도하고 당신은 AI가 유도하는 대로 끌려간다. 미국 작가인 엘리 프레이저(Eli Pariser)는 이런 현상에 필터 버블(Filter Bubble)이라는 이름을 붙였다.
당신이 AI에 오늘 아침 뉴스를 브리핑하라고 요구하면 AI는 특정한 사건이나 뉴스를 중심으로 반복해서 보여준다. 당신은 다양한 시각에서 조화롭게 생각하지 못하고 생각의 버블에 갇혀버린다. 당신은 어느 틈엔가 당신이 보고 싶은 뉴스만 보고 생각은 한쪽으로 치우친다. 확증 편향이 강해지면 당신과 다른 생각을 하는 사람을 싫어하게 된다. 같은 부류만 만나면 당신 생각이 더욱 굳어지는 반향실 효과(Echo Chamber Effect)가 생긴다.
뉴욕대학교 애덤 알터(Adam Alter) 교수는 중독에 영향을 주는 요소 여섯 개를 정리했다. 여섯 개 요소를 AI에 응용하면 다음과 같다. 첫째, AI는 쉽게 행동할 수 있는 목표를 제시한다. 예를 들어 혼잡한 지하철에서 이메일을 확인하고 즉시 답장하면 당신은 스스로 만족한다. 둘째, AI는 가끔 당신에게 상을 준다. 당신이 SNS에 글을 올리면 가끔은 큰 반응이 생긴다. 셋째, Al는 조금씩 수준을 높인다. 어제는 영상 하나를 봤다면 오늘은 영상 두 개를 보게 한다. 넷째, AI는 서서히 어렵게 만든다. 온라인 게임에서 화면이 바뀌는 속도는 점점 빨라진다. 다섯째, AI는 긴장감을 준다. 당신은 단체 대화방에 글을 올린 후 멤버들의 반응을 궁금해한다. 여섯째, AI는 사회적인 연결을 강조한다. 커뮤니티에서 일체감을 느끼도록 만든다. 이런 요소가 동시에 작동할수록 당신은 AI가 만드는 함정에 빠지고 중독되기 쉽다.
- AI는 중독을 판매한다
AI는 개인화를 이용해서 인간을 중독시킨다. AI는 당신이 무엇을 좋아하는지 알고 더 좋아하게 만든다. 가끔은 당신이 원하는 행동을 하지 못하게 일부러 방해하기도 한다. 데이터가 쌓일수록 AI는 자신이 원하는 방향으로 당신을 유도한다. AI는 당신을 중독시키기 위해 여러 개의 알고리즘을 구사한다. 당신은 AI가 자신을 중독시키고 있다는 사실을 인식하지 못한다. 기업은 당신을 중독시켜서 오랫동안 고객으로 머물기를 바란다. AI에 의한 중독의 영향은 시간이 갈수록 더 커진다.
중독을 해소하려면 AI와 단절하는 방법이 가장 좋지만 현실적으로 불가능하다. 당신을 둘러싼 거의 모든 곳에 AI가 있는데 어떻게 AI와 단절할 수 있겠나. 유일한 방법은 슬로우테크(Slow Tech)다. 슬로우테크는 인간이 AI를 이용하는 방식을 바꾸려는 노력이다. 예를 들어 스마트폰에 이메일이 도착하면 일부러 시간을 보낸 후에 확인한다. 단체 대화방에 글이 올라오면 일부러 즉시 반응하지 않는다. 이미 중독되어 많은 시간을 보내고 있는 AI를 의도적으로 느리게 대한다. AI를 조금 느리게 이용함으로써 생활에서 중독의 피해를 줄인다.
AI 자율이 경제를 바꾼다
시장은 어떻게 변할까?
지능: AI는 끊임없이 학습한다
AI가 지능을 가지고 학습하는 방식은 인간에게도 영향을 준다. 학습 과정은 ‘지식 사이클’로 표현할 수 있다. 지식 사이클은 지식의 구조화, 재구축, 유통, 활성화의 각 단계가 연속으로 순환하는 과정을 나타낸다. 지식 사이클을 이해하기 위해 어린아이가 구슬을 모아 목걸이를 만드는 경우를 생각해보자. 여기서 구슬은 지식의 비유다.
어린아이는 다양한 구슬을 최대한 많이 모아서 서랍에 보관한다. 많은 구슬을 구분하지 않고 마구잡이로 섞으면 나중에 원하는 구슬을 찾기 어렵기 때문에 구슬은 색깔이나 크기별로 나누어 보관한다. 어린아이가 구슬을 모아서 서랍에 보관하는 행동은 지식의 구조화에 해당한다.
어느 날 아침, 어린아이는 오늘은 어떤 목걸이를 할지 생각한다. 유치원에 갈 때 하고 싶은 목걸이와 마트에 갈 때 하고 싶은 목걸이가 다르다. 어떤 구슬을 몇 개 꺼내서 어떤 순서로 꿰어야 할지는 어린아이 마음에 달렸다. 어린아이는 원하는 구슬을 여러 개 꿰어 목걸이를 만든다. 의도에 따른 이러한 행동은 지식 재구축이라고 한다. 지식의 재구축은 AI와 특히 잘 어울리는 능력이다. 예를 들어 소송에 걸렸을 때 피의사실에 적용할 수 있는 법률을 찾아서 의뢰인에게 가장 유리한 조항을 관련짓는 작업은 인간보다 AI가 더 빨리, 더 정확하게 할 수 있다.
어린아이는 목걸이를 하고 유치원에 가서 친구에게 자랑한다. AI가 작업한 결과를 인간에게 제시하는 과정은 지식 유통이라고 한다. 지식 유통은 생성형 AI가 인간에게 답을 제시하는 방식처럼 인간의 눈에 보이는 형태도 있다. 지식을 유통하려면 지식 단위와 제공 수단을 정해야 한다. 단위는 책 한 권이나 보고서 한 편처럼 취급하는 단위를 말한다. 제공 수단은 종이나 전자파일을 말한다. 지식 유통은 사용자가 필요로 하는 바로 그 시점에 필요로 하는 바로 그 지식을 제공하는 방식이어야 한다.
어린아이가 유치원에서 친구에게 목걸이를 자랑하거나 반대로 친구가 하고 온 목걸이를 부러워할 수 있다. 친구를 보니 새로운 구슬도 있고 새로운 디자인도 있다. 그중에는 탐나는 구슬도 있다. 어린아이는 친구 목걸이를 보고 새로운 구슬을 사고 싶어졌다. 어린아이는 부모에게 새로운 구슬을 사달라고 조른다. 이런 행동은 지식 활성화라고 한다.
가상: 산업의 중심은 가상 세계로 이동한다
금융 서비스도 가상 세계에서 진행된다. 은행은 메타버스에 가상 지점을 설치하고 보험 가입이나 담보 대출과 같은 영업을 진행한다. 매매 대금 결제에 사용되는 화폐나 토큰은 스테이블 코인을 통해서 법정화폐와 교환할 수 있다. 메타버스에서 가상 부동산을 매매하는 사례가 늘어나고 디지털 자산 소유권은 대체할 수 없는 토큰인 NFT(Non Fungible Token)을 이용한다. 디지털 자산의 소유권과 거래 명세는 블록체인에 기록되어 실물 부동산과 같은 방식으로 매매하거나 임대할 수 있다.
NFT를 재무제표에서 자산으로 다루면 가상 자산은 실물 경제로 편입된다. 가상 부동산이나 NFT를 담보로 대출하는 탈중앙 금융 서비스가 증가할 전망이다. 가상 세계의 경제 규모가 증가하면 신용평가나 세금 산정처럼 물리 세계와 비슷하거나 전혀 다른 방식의 생태계가 진화할 전망이다.
의료 산업에서도 가상 세계의 역할이 커진다. 환자를 물리적으로 진단하고 치료하는 과정은 모두 가상 세계에 복사된다. 의사는 환자를 수술하는 과정을 가상 세계에서 시뮬레이션한다. 시뮬레이션 결과를 3차원 영상으로 만들어 환자 신체에 투영하면 정밀한 수술이 가능해진다. 의사는 환자를 수술하면서 동시에 검사 데이터를 참고한다. 환자를 문진하면서 동시에 진료 이력을 조회한다. 가상현실을 이용한 환자의 심리 치료도 늘어날 전망이다.
연결: 네트워크를 의도적으로 분리한다
전 세계가 하나의 네트워크로 연결되어 있으면, 한 곳에서 발생한 문제가 금방 전체로 확산된다. 이를 적나라하게 보여주는 사례가 2024년에 발생했다. MS가 제공하는 클라우드 컴퓨팅 서비스에 장애가 발생하자 전 세계가 혼란에 빠졌다. 항공기 운항 중단 사태가 발생하고 방송과 통신에도 문제가 이어졌다. 원인은 곧 밝혀졌다. 미국의 사이버 보안 기업인 크라우드 스트라이크(CowdStrike)가 클라우드 보안 프로그램을 갱신하던 중에 오류가 발생한 것이다. 그러나 MS의 클라우드 컴퓨팅 장애에 중국은 아무런 영향을 받지 않았다.
미국이 국가 안보를 이유로 중국과의 네트워크를 분리하듯이 중국 역시 국가 안보를 이유로 든다. 양국이 자국을 중심으로 하는 네트워크를 확장하면서 동시에 상대국의 네트워크를 분리하려는 시도는 시장에 큰 영향을 준다.
커넥티드카 개발에 있어서도 중요한 문제다. 커넥티드카는 블루투스나 와이파이 등 무선으로 내비게이션을 조작하거나 자율주행 기능을 이용한다. 2024년, 미국은 자국 영토에서 주행하는 레벨 3 이상의 커넥티드카에는 중국산 소프트웨어를 사용하지 못하도록 했다. 미국에서 판매하는 커넥티드카는 미국 소프트웨어만 사용해야 한다. AI는 커넥티드카에 설치한 기기를 통해서 인간의 대화를 도청하거나 차량 운행을 제어할 수 있다. 미국은 중국의 자동차 기업이 미국 시장에서 데이터를 입수하지 못하도록 막는다. 마찬가지로 중국 시장에서는 중국 소프트웨어만 사용해야 한다.
융합: AI와 다양한 기술이 융합한다
AI는 클라우드 컴퓨팅과 융합해서 컴퓨팅 자원을 제공한다. 사물 인터넷과 융합해서 자율 공장을 지향한다. 로봇과 융합해서 자율주행 로봇으로 진화한다. 블록체인과 융합해서 의료 데이터 관리에 이용된다. 이외에도 AI는 인간이 일상에서 대하는 거의 모든 기술과 융합한다. AI는 처음부터 다양한 기술의 융합에서 시작되었다. 1950년대 AI 연구를 주도하던 연구자는 연구 주제가 모두 달랐다. 예를 들어 벨 연구소의 클로드 섀넌(Claude Shannon)은 정보 이론을 바탕으로 학습하는 기계를 연구했다. IBM의 너새니얼 로체스터(Nathaniel Rochester)는 컴퓨터 설계와 프로그램 기법을 연구했다. 다트머스대학교의 존 매카시(John McCarthy) 교수는 사고 과정을 수학적으로 규명하는 연구를 했다. 배경이 다른 연구자들이 다양한 주제를 연구하다 보니 내용이 지나치게 분산되었다. 연구자들은 집중도를 높이기 위해 함께 모여서 논의하기로 했다. 1956년 연구자들은 다트머스대학교에 모여 8주 동안 브레인스토밍을 했다. 주제는 자동 컴퓨터, 컴퓨터 프로그래밍, 신경망, 계산 크기, 자체 성장, 추상화, 창의성이다. 매카시 교수는 다양한 연구 주제를 하나로 표현하기 위해 AI라는 용어를 정의했다.
용어의 탄생 과정에서 보았듯이 AI는 한 가지 기술을 지칭하지 않는다. AI는 공학, 수학, 논리학, 철학, 심리학을 비롯한 많은 기술을 포함한다. AI라는 이름 아래 다뤄지는 기술은 적어도 다음과 같은 기술을 포함한다. 기계 학습, 심층 학습, 자연어 처리, 이미지 인식, 음성 인식, 패턴 인식, 자동제어, 컴퓨터 비전, 자동 추론, 데이터 마이닝, 지능 엔진, 시맨틱 웹, 인지 컴퓨팅까지 매우 다양하다.