메뉴 바로가기 검색 및 카테고리 바로가기 본문 바로가기

IT/모바일

파이에서 인공지능까지: 무한을 향한 끝없는 집념의 나비효과

한빛미디어

|

2025-03-13

|

by 개앞맵시

58

 

“도대체 파이가 인공지능과 무슨 상관이야?”

 

사실 3.14…로 끝없이 이어지는 원주율 π는 고대부터 기하학과 해석학을 탄탄히 세워 왔고, 그 기초 위에서 신호처리와 통계학, 머신러닝, 딥러닝까지 줄줄이 발전해 왔다. 과장을 조금 보태자면, 원주의 작은 날갯짓이 오늘날의 초거대 AI를 탄생시키는 나비효과가 된 셈이다. 우리의 일상을 바꾼 인공지능 기술들이 어쩌면 π의 보이지 않는 손길을 빌려 왔다고 생각하면, 이보다 더 흥미로운 이야기가 또 있을까? 바로 그 숨겨진 연결고리를 지금부터 파헤쳐 보려 한다.

 


 

1. 원의 성질을 밝히다

 

인류가 원이라는 도형을 처음 발견한 순간은 아마 태양과 달을 바라보거나, 물 위로 스며드는 파문을 지켜보다가 “어쩜 저렇게 동그랗지?” 하고 놀라던 때였을 것이다. 이 신비로운 모양은 생활 속에서 바퀴처럼 실용적인 기능으로 구현되는가 하면, 철학자와 수학자들에게는 완벽함을 의미하는 상징으로 여겨졌다. 그도 그럴 것이, 원만큼 한눈에 ‘끝’이 보이지 않는 도형도 드물다. 한 바퀴 빙 둘러 보면 언제나 출발점으로 되돌아오니, 사람들은 여기에 나름의 우주적 의미까지 부여하곤 했다.

 

그런데 원을 수학적으로 이해하는 과정에서 흥미로운 현상이 발견됐다. ‘원을 이루는 둘레 길이는 지름의 3배보다 조금 더 크다’라는 사실이다. 아주 오래전부터 바빌로니아, 이집트, 중국 등 여러 문명이 이를 감지하고 기록으로 남겼으나, 그 오묘한 ‘조금 더’가 대체 얼마나 더인지, 또 왜 그러한 비율이 생기는지 명확히 알아내는 일은 쉽지 않았다. 지금은 누구나 알고 있는 ‘원주율 π’의 존재를, 옛사람들은 그저 막연히 감각적으로만 파악하고 있었다.

 

undefined

(그림 출처)

 

그러다가 원주율 계산이 본격적으로 시도된 사례가 고대 그리스의 수학자 아르키메데스를 통해 확인된다. 아르키메데스는 원에 내접하는 정다각형과 원을 외접하는 정다각형을 이용해 그 둘레를 ‘조금씩’ 조정해 가며 원의 둘레 길이를 추정했다. 원을 무한히 많은 변으로 쪼갠 다각형으로 생각하는 이 아이디어는, 겉보기엔 단순해 보여도 무한한 과정을 떠올려야 한다는 점에서 시공을 초월한 통찰력을 보여 준다. 기원전 3세기에 이미 “무한히 나누어 가까이 접근한다”는 사고가 움트고 있었다니, 정말 놀라운 일이다.

 

아르키메데스의 원주율 계산 아이디어 (그림 출처)

 

동양 역시 원주율에 대해 큰 관심을 보였다. 중국의 조충지는 5세기 무렵 π 값을 소수점 이하 7자리까지 근사하는 놀라운 성과를 남겼다. 유럽에서는 시간이 흘러 18세기에 이르러서야 비로소 π라는 기호가 널리 쓰이기 시작했다. 웨일스 수학자 윌리엄 존스가 처음 선보였고, 레온하르트 오일러가 이를 적극적으로 활용하면서 표준화된 셈이다. 뒤이어 π가 무리수라는 사실이 밝혀졌고, 더 나아가 초월수라는 결론에 이르러서야 사람들은 “끝없이 반복되지도, 규칙을 찾을 수도 없는 숫자가 바로 원을 형성하는 근본 비율이구나!” 하고 한층 더 깊이 감탄했다.

 

원주율 계산에 얽힌 역사적 에피소드 또한 흥미롭다. 그중 하나로, 1897년 미국 인디애나주 의회에서 π를 3.2로 법제화하려 했다는 이야기야말로 유명한 일화다. 이는 수학자가 발표한 잘못된 증명을 그대로 받아들인 정치적 해프닝이었는데, 다행히 우연히 현장을 지나던 수학 교수가 이를 발견하고 부결시켰다고 한다. “이렇게 완벽해 보이는 원에 딱 떨어지는 값 하나쯤 만들어 줄 수 없을까?”라는 아마추어적 욕망이 만들어 낸 코미디인 셈이다.

 

undefined

인디애나주 파이 법안을 조롱한 풍자 만화 (그림 출처)

 

하지만 원과 π에 대한 사람들의 집요한 관심은 단순한 호기심으로 끝나지 않고, 새로운 학문의 씨앗이 되었다. 원을 파고드는 과정에서 기하학이 정교해졌고, 이 기하학적 사고방식이 훗날 미분·적분, 푸리에 해석 등 해석학으로 확장되는 단초가 되었기 때문이다. “원을 무한히 쪼개어 면적과 둘레를 구한다”라는 발상은 “모든 현상을 무수히 작은 조각으로 나누고, 그 합으로 전체를 파악한다”라는 해석학의 근간과 맞닿아 있다. 결국, 원이라는 단순한 도형을 이해하기 위한 노력이 인류의 수학과 과학을 거대한 방향으로 이끌었고, 오늘날 우리가 누리는 공학 기술, 더 나아가 AI로 이어지는 나비효과가 되었는지도 모른다.

 

비록 눈으로만 보면 ‘한없이 매끈하다’고 생각되는 원이지만, 실제 수학적 본질은 무궁무진한 소수를 머금고 있다. 이 아이러니야말로 원이 지는 가장 큰 매력이다. 완벽함과 무한성을 동시에 상징하는 이 도형과 π라는 수는 인류가 자연과 우주를 이해하는 데 얼마나 도전적이고 집요할 수 있는지를 보여 준다.

 

요약

 

  • 인류가 원에 대한 호기심을 갖게 된 계기는 태양, 달, 물결 등 자연 속에서 동그란 모양을 발견하면서부터다.
  • 고대부터 ‘지름보다 약간 더 큰 둘레’라는 개념이 공유되었으나, 그 비율이 구체적으로 얼마나 되는지는 오랫동안 수수께끼였다.
  • 아르키메데스는 내·외접 다각형을 이용해 원주율을 체계적으로 추정했고, 중국의 조충지는 π의 소수점 7자리 근사치를 남겼다.
  • 이후 π가 무리수이자 초월수로 밝혀지면서 “완벽해 보이지만 끝이 없는” 원의 수학적 특성이 인류에게 깊은 영감을 주었다.
  • 원의 탐구가 기하학 발전에 큰 기여를 했고, 이는 해석학과 공학, AI로 이어지는 길의 작은 초석 중 하나가 되었다.

 

다음 장에서는 이렇게 형성된 기하학적 사고방식이 어떻게 해석학(미분·적분, 푸리에 해석 등)으로 발전했는지 알아본다. 원을 쪼개고 다각형을 합쳐 보려던 작은 시도, “연속적인 변화를 식으로 표현한다”라는 엄청난 패러다임 전환으로까지 이어진 이야기로 초대한다.

 

 

2장. 기하학에서 해석학으로 확장

 

고대 그리스부터 기하학은 ‘눈에 보이는 세계’를 수학적으로 풀어내려는 연구에 핵심이었다. 한 점에서 시작해 선분을 그리고, 삼각형·사각형을 정의하며, 원과 같은 곡선 도형의 특성을 밝히는 일이 대표적이었다. 이처럼 도형 중심의 사고는 ‘직관적으로 이해하고, 엄밀하게 증명할 수 있는’ 수학적 매력을 보여 주었다. 특히 『에우클레이데스의 원론』은 방대한 정리를 체계화함으로써 오랫동안 수학 교육의 근간이 되었고(한국어 번역서), 아르키메데스의 연구는 도형을 ‘자잘하게 쪼개서’ 둘레나 넓이를 근사하는 방식(소멸법)을 제시했다. 이처럼 ‘쪼개고 합하는’ 구체적 발상이 씨앗이 되어, 훗날 해석학이라는 새로운 분야로 자라날 준비가 이미 시작된 셈이었다.

 

시간이 흐르면서 수학자들은 기하학만으로 설명하기엔 한계가 있는 여러 ‘연속적인 변화’에 주목하기 시작했다. 일상에서 만나는 물체의 운동, 물리학에서의 속도·가속도 개념, 사인파처럼 출렁이는 파동 등은 눈으로 보기는 쉬워도 이를 기하학적 도형만으로 깔끔히 표현하긴 쉽지 않았다. 여기서 르네 데카르트가 ‘좌표 기하학(해석 기하학)’을 제안함으로써, 도형은 이제 x축과 y축 위의 방정식으로 번역될 수 있게 되었고, ‘함수’라는 표현이 부상하기 시작했다.

 

undefined

직교 좌표계 (그림 출처)

 

그 뒤로 뉴턴과 라이프니츠가 각자 독자적 방법으로 미분·적분을 체계화함에 따라 ‘계속 변하는 현상’을 수학적으로 표현하고 계산하는 길이 열렸다. 미분은 어떤 변화가 ‘얼마나 가파르게 일어나는지’를, 적분은 ‘잘게 나눈 양을 모두 더하면 전체가 어떻게 되는지’를 보여 주는 핵심 도구였다. 덕분에 자연현상과 움직임은 ‘연속적인 수들의 언어’로 풀어낼 수 있게 되었다.

 

이후 오일러, 가우스, 리만 같은 거장들이 미적분을 더욱 정교하게 다듬고 확장해, 해석학은 근대 수학의 중심축이 된다. 특히 장 바티스트 푸리에의 ‘푸리에 해석’은 복잡해 보이는 파동이나 주기 함수를 사인·코사인으로 나누어 합하는 기법을 제시하면서, 신호와 물리적 진동을 깊이 이해하는 획을 그었다. 이렇게 기하학적 발상에서 출발한 ‘쪼개고 합하는’ 사고방식이 연속된 현상을 측정·모델링·분석하는 해석학으로 발전하자 물리학·공학 등 다양한 영역에서 엄청난 혁신이 일어났다. 자연히 오늘날의 컴퓨터·통신·데이터 기술에도 큰 영향을 미쳐, 인공지능에 이르는 길의 기틀을 마련해 준 셈이다.

 

요약

 

  • 고대 기하학은 도형을 직접적으로 다루는 눈에 보이는 수학이었고, 아르키메데스의 소멸법 등에서 ‘무한히 쪼개어 근사를 구한다’는 아이디어가 싹트기 시작했다.
  • 좌표 기하학(데카르트)과 미분·적분(뉴턴·라이프니츠)은 ‘연속적인 변화’를 계산 가능한 형태로 변환해, 자연현상과 물리적 운동을 해석하는 새 지평을 열었다.
  • 오일러푸리에리만 등으로 이어진 해석학은 파동, 신호, 주기 함수 등을 분석하는 데 필수적인 이론들을 정립하고, 근대 과학·공학의 기반을 다졌다.
  • 이 모든 과정이 훗날 신호처리통계학데이터 과학과 결합해 AI의 태동에 결정적 영향을 주었다.

 

해석학이 마련한 이론적 틀은 신호처리와 통신기술의 발전을 가속해 방대한 데이터를 효과적으로 다루는 세상을 열었다. 다음 장에선 음성·영상·통신 신호를 효율적으로 처리하기 위한 기법이 어떻게 발전해 왔고, 그것이 또 어떻게 AI의 토대를 닦았는지 함께 살펴보도록 하자.

 

 

3. 신호처리 기법의 발전

 

기하학과 해석학의 발달로 우리는 자연 속 다양한 운동과 파동을 수학적으로 표현할 수 있게 되었다. 그런데 이 작업을 현실 세계에 적용하려면 진동하며 바뀌는 ‘연속적 신호’를 체계적으로 받아들이고 해석해야 하는 문제가 남아 있었다. 이를테면 소리, 빛, 전기 신호 같은 것들은 시간축을 따라 끊임없이 변한다. 더구나 주변으로부터 잡음이나 왜곡이 섞여 들어와서 필요한 정보를 그대로 꺼내 보기 어려울 때가 많았다. 이런 배경에서 ‘신호처리’라는 분야가 등장했고, 오늘날 디지털 시대의 핵심 기반이 되어 우리의 생활 전반을 바꿔 놓았다.

 

이 신호처리 분야에서 가장 빛나는 전환점 중 하나는 바로 푸리에 해석의 실용적 활용이었다. 장 바티스트 푸리에의 이론은 모든 주기적 신호가 실제로는 단순한 사인·코사인 파동들의 조합으로 표현될 수 있음을 보여 주었다. 신호의 공간에서 이런 ‘주파수 분해’를 할 수 있다는 사실은 음악, 음성, 영상, 전자파, 빛 등 온갖 파동을 다루는 데 결정적인 역할을 했다. 복잡한 신호라고 해도 기본 파동들을 일일이 떼어 놓고 보면 처리나 분석이 더 쉬워지기 때문이다.

 

쉽게 알아보는 공학이야기 11 – 푸리에 급수

두 사인 파형의 중첩 (그림 출처)

 

한편, 디지털 혁명이 가속화되면서 아날로그 신호를 ‘숫자’로 변환하는 기술이 발전했다. 오늘날 익숙한 용어인 ‘샘플링’과 ‘양자화’가 그런 과정이다. 원래 연속적인 파동을 잘게 쪼개어 일정 시간 간격으로 측정하고(샘플링), 그 값을 일정 단위의 수치로 반올림해 표현(양자화)함으로써, 우리는 한없이 연속적인 세계를 ‘컴퓨터가 다룰 수 있는’ 이산적 수치 데이터로 바꿀 수 있게 됐다. 이렇게 디지털화된 신호는 저장, 복제, 전송 등이 훨씬 용이해졌고, 에러 검출·복구도 쉬워져서 정교한 신호처리가 가능해졌다.

 

특히 통신 기술의 발달은 방대한 양의 데이터를 실시간으로 주고받을 수 있는 길을 닦았다. 아날로그 전송에 비해 디지털 전송은 노이즈에 강하고 신호 재생력이 높기 때문에 점차 주류가 되었다. 그 덕분에 음성이나 영상도 압축·부호화 기법을 이용해 효율적으로 전송하는 시대가 열렸다. 예컨대 MP3, JPEG, MPEG 같은 형식들은 모두 ‘원본 신호에서 꼭 필요한 정보만 뽑아내고, 중복되거나 사람 귀·눈에 크게 중요치 않은 부분을 줄이는’ 기술에 기반을 두고 있다. 이 모든 압축, 복원, 필터링 과정에서 미적분, 행렬 대수, 푸리에 변환을 비롯한 해석학적 기법이 핵심 도구로 쓰인다.

 

그러는 사이, 기업과 연구소에선 점점 복잡하고 많은 데이터를 다뤄야 하는 상황이 잦아졌다. 기계가 직접 신호를 인식하거나 패턴을 찾아내도록 만드는, 이른바 ‘자동화된 신호처리’에 대한 요구도 커졌다. 음성 인식을 통해 전화를 받거나, 영상 속 물체를 자동으로 식별해 보안 시스템을 구축하려는 시도가 대표적이다. 여기서 우리는 데이터 양이 엄청나고, 그 안에 잠재된 패턴은 미리 짐작하기 어렵다는 사실을 마주했다. 기존의 간단한 필터나 회로 설계만으로는 한계가 눈에 띄게 드러나기 시작한 것이다.

 

이때부터 통계학과 확률론, 선형대수학, 그리고 새롭게 태동한 ‘머신러닝’이 신호처리와 결합하기 시작한다. 예컨대, 어떤 음성 파일을 주파수별로 잘게 나눠서 특정 어휘나 화자의 성향을 판별해 낸다거나, 이미지 데이터의 픽셀 단위 정보를 놓고 경계와 특징점을 학습해 사물이나 인물을 식별하는 식이다. 이렇듯 신호처리는 ‘데이터 과학’과 함께 발전하며 자동화·지능화의 길을 열었다. 이는 곧 인공지능(AI)으로 가는 중요한 단계가 된다. 즉, 신호처리가 단지 ‘소리를 깨끗이 만들거나, 이미지를 선명히 하는’ 기술에 머물지 않고, ‘수많은 데이터에서 의미 있는 정보를 추출·분석·예측’하는 차원으로 확장된 것이다.

 

결국, 기하학과 해석학이 만든 수학적 도구들은 신호처리를 탄탄히 뒷받침했고, 디지털 통신과 컴퓨팅의 발전과 맞물려 세상을 빠르게 변화시켰다. 오늘날 우리가 누리는 스마트폰과 인터넷, 스트리밍, 각종 AI 어시스턴트 기술은 하나같이 이 신호처리의 혜택을 받고 있다고 해도 과언이 아니다. 무심코 듣고 보는 멀티미디어 자료 속에는 아주 복잡한 수학적 계산과 알고리즘이 숨어 있고, 우리는 그것들을 편안히 소비하며 살아간다. 그리고 이 흐름은 자연스레 더 정교하고 더 ‘지능적인’ 시스템을 꿈꾸게 만든다.

 

요약

 

  • 해석학의 발달은 파동, 주기 함수, 연속적 신호를 이해·분석하는 푸리에 해석 같은 기법을 가능케 했다.
  • 샘플링 양자화를 통해 아날로그 신호를 디지털 형태로 변환함으로써, 신호처리와 전송이 효율적이고 정교해졌다.
  • 압축·부호화 기술(MP3, JPEG 등)은 중요한 정보를 남기고, 불필요한 부분을 줄여 빠른 전송과 저장을 가능하게 했다.
  • 방대한 데이터를 다루는 자동화된 신호처리가 요구되면서 통계학, 확률론, 머신러닝이 접목되기 시작했고, 이것이 곧 AI로 이어지는 길을 열었다.

 

다음 장에서는 이렇게 축적된 신호처리 경험과 데이터를 바탕으로 본격적으로 등장하는 머신러닝과 인공신경망의 세계를 살펴본다. “데이터로부터 직접 패턴을 학습한다”라는 새로운 관점이 어떻게 탄생하고, 또 왜 21세기에 와서 폭발적으로 발전했는지 그 비밀을 파헤쳐 보자.

 

 

4. 머신러닝 이론의 토대 마련

 

신호처리와 통신 기술이 발전하면서, 우리는 디지털 형태의 데이터를 손쉽게 수집하고 다룰 수 있게 되었다. 분명 초기에는 “어떻게 깨끗한 소리를 얻고, 선명한 영상을 전송할까?”에 초점이 맞춰졌지만, 점차 양이 기하급수적으로 늘어나는 데이터 속에서 숨은 규칙과 구조를 찾아내고 싶어졌다. 인간이 하나하나 들여다보고 분류하거나 해석하기에는 너무나 많은 정보가 쏟아져 나왔고, 사람 대신 기계가 데이터의 ‘패턴’을 학습하게 하려는 시도가 본격화된 것이다. 이때부터 우리는 ‘머신러닝(기계학습)’이라는 개념을 조금씩 구체화하기 시작했다.

 

머신러닝은 간단히 말해 ‘데이터에서 직접 답을 찾도록 하는 알고리즘’이다. 보통 우리는 문제를 풀 때 논리적 규칙이나 공식을 정해 놓고 입력값에 따라 출력을 결정한다. 그러나 ‘정해진 공식’이 딱히 보이지 않거나, 있더라도 너무 복잡해서 일일이 나열할 수 없는 문제도 많다. 예를 들어, 고양이 사진과 개 사진 수백만 장을 구분하라고 하면 “고양이는 귀가 어떤 모양이고, 코 위치가 어디고…” 같은 규칙을 사람이 모두 써 주기란 사실상 불가능에 가깝다. 머신러닝은 여기에 착안해, 기계가 데이터 자체에서 규칙성을 찾아내도록 만들자는 접근이다.

 

Robot thinking about a problem

(그림 출처)

 

이런 아이디어가 태동하기 위해서는 우선 통계학과 확률론이 밑바탕에 깔려 있어야 했다. “어떤 패턴이 우연이 아니라 의미 있는 경향이라는 걸 어떻게 파악할까?” “오류가 발생할 가능성을 어떻게 수치화하고, 보정할까?” 같은 문제는 전통적인 통계 이론이 다루어 온 핵심 주제였다. 또, 데이터가 무척이나 ‘고차원적’이라는 점 때문에 선형대수학과 최적화 이론이 적극적으로 활용되기 시작했다. 예컨대, 이미지 한 장을 구성하는 수많은 픽셀 값을 벡터로 표현하고, 이를 ‘공간’ 안에서 규칙적으로 분류하거나 군집 짓는 과정을 수학적으로 설명하려면 행렬 연산과 고차원 기하학 개념이 필요했다.

 

그리고 무엇보다, 계산 자원의 비약적 발전이 머신러닝의 발전에 불을 붙였다. 초기에는 “이렇게 방대한 데이터를 컴퓨터가 실시간으로 처리하고 학습할 수 있겠어?” 하는 회의론이 컸다. 그러나 마이크로프로세서 기술이 발전하고 병렬 연산이 가능한 GPU가 속속 등장하면서, 갑자기 예전에는 상상도 못 할 규모의 연산이 가능해졌다. 자연스럽게 머신러닝 모델들은 점점 복잡해지고 더 정교해질 수 있었다.

 

머신러닝의 간단한 예로 ‘회귀’와 ‘분류’를 들 수 있다. 회귀는 예측하려는 대상이 연속적인 값일 때(예: 내일의 주가 예측, 특정 온도 예상치 등)에 쓰이며, 분류는 데이터가 특정 범주 중 하나(예: 스팸 메일 vs 정상 메일, 고양이 vs 개 vs 새)로 구분될 때 사용된다. 두 문제 모두 모델이 스스로 ‘입력(feature) → 출력(label)’ 사이의 함수적 관계를 학습해 나가며, 대체로 더 많이 배울수록 예측 정확도가 높아진다.

 

머신러닝을 둘러싼 연구들은 다양하고 방대하여 세부 분야만 해도 끝없이 구분될 정도다. 전통적인 확률 모델에서 출발한 베이즈 통계학파의 접근이 있는가 하면, 차원 축소와 군집화 기법을 활용해 복잡도를 낮추는 학파, 또는 유전 알고리즘처럼 생물의 진화 메커니즘을 모방하는 기법도 등장했다. 여기에 데이터를 동적으로 학습해 나가는 강화학습까지 가세하면서, 머신러닝은 그야말로 ‘다양한 문제해결 방식을 수용하는 광범위한 학문 영역’으로 자리 잡았다.

 

이 과정에서 인공신경망 또한 부활과 침체를 반복하면서 조금씩 진화했다. 1950~60년대에 이미 ‘퍼셉트론’이라는 초기 형태가 제안됐지만, 하드웨어 성능과 알고리즘상의 한계로 인해 발전이 더뎠다. 그러나 1980년대 후반에는 역전파 알고리즘이 소개되면서 인공신경망이 새로운 주목을 받았고, 2000년대 이후 GPU의 힘과 빅데이터의 결합으로 ‘딥러닝’이 폭발적인 성능을 보이게 된다. 이렇게 머신러닝 전반에 걸쳐 탄탄한 토대가 마련된 덕분에, 우리는 컴퓨터가 스스로 음성을 알아듣고, 이미지를 이해하며, 번역을 수행하고, 심지어 예술 영역까지 넘나드는 기술을 확인하게 된 것이다.

 

결국, 머신러닝 이론의 토대는 통계학, 확률론, 선형대수, 최적화 이론 등의 두꺼운 기반 위에 서 있다. 여기에 신호처리에서 발전된 기법과 빠른 컴퓨팅을 가능케 한 하드웨어 혁명이 힘을 실어 줬다. 어떤 면에서 보면 ‘원의 성질을 쪼개어 이해하는’ 그 옛날의 기하학적 집요함이, 이제는 ‘데이터를 쪼개어 패턴을 학습하는’ 형태로 계승되고 있다고도 볼 수 있다. 아무리 규모가 커져도 혹은 더 복잡해져도, 결국에는 작은 단위 정보들을 이해하고 모아 가며 의미를 찾아내겠다는 정신 말이다.

 

요약

 

  • 디지털 신호처리와 데이터 축적이 늘어나면서 사람이 직접 규칙을 정하기 어려운 문제들이 부각되었고, 결국 머신러닝이 주목받기 시작했다.
  • 머신러닝은 통계학, 확률론, 선형대수학, 최적화 등의 수학적 기반을 토대로 ‘데이터에서 스스로 규칙을 찾는’ 기법들을 발전시켜 왔다.
  • 회귀, 분류, 군집화, 강화학습 등 다양한 접근이 존재하며, 특히 인공신경망은 GPU 발전과 빅데이터의 등장으로 딥러닝 시대를 열었다.
  • 궁극적으로, 머신러닝 이론은 “데이터를 통해 스스로 패턴을 찾는다”는 철학을 바탕으로 AI 발전의 핵심 동력이 되었다.

 

이제 우리는 인공신경망과 딥러닝의 시대 한가운데에 서 있다. 다음 장에서는 인공신경망을 조금 더 깊이 파고들어, 왜 갑자기 딥러닝이 주목받게 되었는지, 그리고 어떻게 다양한 산업과 우리의 일상을 바꾸고 있는지 살펴보도록 하자.

 

 

5. 인공신경망과 딥러닝의 발전

 

1960년대에 제안된 ‘퍼셉트론’은 인공신경망의 시작점이 되었다. 이 모델은 생물학적 뉴런에 착안하여, 입력이 일정 수준을 넘으면 신호를 출력하는 간단한 구조를 갖췄다.

 

_images/neuron-node1.png

퍼셉트론 개념 (그림 출처)

 

문제는 퍼셉트론이 단층 구조만으로는 해결할 수 없는 과제들이 많았다는 점이었다. 예컨대 ‘XOR 문제’처럼 단순한 논리 연산도 한 겹의 퍼셉트론만으로는 풀기 어렵다는 사실이 드러나면서 인공신경망은 한동안 냉각기를 맞았다. ‘신경망은 시대를 앞선 과대망상’이라는 평가가 내려지는 듯했다.

 

그런데 1980년대 후반, ‘역전파’ 기법이 소개되면서 분위기가 조금씩 달라졌다. 역전파는 여러 겹의 은닉층(hidden layer)을 가진 신경망에서도 오류 신호를 효율적으로 전달해 가며 가중치를 갱신할 수 있게 해 주었다. 다시 말해, ‘입력층에서 출력층까지 신호가 한 번 흐른 뒤, 잘못된 출력을 최소화하도록 역방향으로 오차를 조정해 나가는 과정’이 정립된 것이다. 이는 다층 퍼셉트론(Multi-Layer Perceptron)이 복잡한 문제도 학습할 수 있는 길을 열어 주었다.

 

그러나 그 시점에도 여전히 ‘딥러닝’이라는 말은 생소했다. 이유는 간단했다. 컴퓨팅 자원과 데이터가 충분하지 않았기 때문이다. 학습에 필요한 연산량이 기하급수적으로 증가하는 탓에, 신경망이 제대로 성능을 내기 위해선 무지막지한 계산 능력과 엄청난 양의 학습 데이터가 필요했다. 게다가 학습이 잘 안 되는 문제, 예를 들어 ‘기울기 소실’ 같은 현상도 잦았다. 이 때문에 대부분의 연구자는 복잡한 신경망 대신, 비교적 단순한 기계학습 기법들(SVM, 랜덤 포레스트, 앙상블 등)에 집중하는 편이 더 합리적이라고 생각했다.

 

그러다 2000년대 중반 이후 세상이 빠르게 변했다. 스마트폰 보급과 함께 데이터가 폭발적으로 쌓이기 시작했고, 그래픽카드용 GPU가 대량의 병렬 계산을 처리하는 데 제격이라는 사실이 부각되었다. 대학 연구실뿐 아니라 IT 산업 전반에서 GPU를 활용해 신경망 학습을 시도해 본 결과, 전에는 ‘뚝’ 끊기던 학습 과정이 훨씬 안정적으로 돌아가고, 대규모 데이터셋에 대해 어마어마하게 높은 정확도를 달성하기 시작했다.

 

그렇게 등장한 것이 바로 우리가 부르는 ‘딥러닝’이다. 여러 층(layer)을 깊게 쌓은 신경망이 복잡한 문제를 스스로 분해·학습·조합해 낸다는 뜻에서 이 용어가 널리 쓰이게 되었다. 특히 ‘합성곱 신경망(CNN)’이 이미지 인식 분야에서 혁혁한 성과를 거둔 사례가 유명하다. 이전에는 “컴퓨터가 어떻게 그림 속 사물을 자동으로 판별할까?”를 위해 복잡한 특징 추출 공식을 사람이 일일이 만들어 줘야 했는데, CNN은 그 공정을 학습 과정에서 스스로 최적화했다. 2012년 ‘이미지넷 대회’에서 딥러닝 모델이 압도적인 성능을 보여 준 뒤, 산업계는 순식간에 딥러닝 열풍에 휩싸였다.

 

음성 인식도 마찬가지다. 기존에는 사람이 음소나 언어 모델을 구체적으로 설계해야 했는데, ‘순환 신경망(RNN)’ 계열이나 ‘트랜스포머(Transformer)’ 모델 등이 등장하면서, 인간이 설계하지 않은 패턴을 스스로 찾아 정확도를 크게 끌어올렸다. 이런 흐름은 곧 기계 번역, 자율주행, 추천 시스템, 의료 영상 분석 등, 정보 처리의 전 영역으로 퍼져 나갔다. 어느새 우리는 ‘딥러닝이 없는’ AI를 상상하기 어려운 지경이 되었으며, 기업마다 GPU 팜을 구축하고, 빅데이터를 끌어 모으며, 새로운 모델을 누구보다 빨리 시도하려는 경쟁이 벌어지기에 이른다.

 

딥러닝이 의미하는 바는 단순한 ‘고성능 알고리즘’ 그 이상이다. 사실상 이는 인간 두뇌를 흉내 낸다고 여겨진 인공신경망이 여러 시행착오 끝에 마침내 빛을 본 사건이기 때문이다. 데이터를 주고 학습하는 과정을 거치면, 신경망 내부의 무수히 많은 파라미터가 스스로 맞춰져서 문제 해결 능력을 획득한다. 이는 ‘지식’을 기계가 직접 구축해 가는 모습이기도 해서, 사람들에게는 큰 기대와 함께 막연한 두려움까지 일으켰다. “기계가 생각을 할 수 있을까?” “머지않아 기계가 인간의 직업을 대체하거나, 감정까지 흉내 낼 수 있을까?” 하는 논의가 활발해진 것도 이 즈음부터다.

 

물론 아직 해결해야 할 문제는 많다. 학습에 필요한 데이터와 전력 소모가 엄청나기도 하고, 설명 가능성(Explainability) 문제나 편향(Bias)을 제거하는 문제, 개인정보 보호 문제 등 딥러닝이 가져온 새로운 숙제가 늘어만 가고 있다. 그럼에도 불구하고 인공신경망이 과거와 달리 실제 서비스와 제품으로 구현되는 시대에 접어든 만큼, 우리는 앞으로도 딥러닝이 이끄는 AI 혁신을 계속 목격하게 될 가능성이 크다. 그리고 그 뒷면에는 기하학과 해석학, 신호처리, 머신러닝 이론을 잇는 긴 연결 고리가 든든히 버티고 있다.

 

요약

 

  • 인공신경망은 1950~60년대의 퍼셉트론으로 시작됐으나, 역전파 등장 전후로 부침을 거듭했다.
  • 2000년대 중반 이후, 빅데이터와 GPU 발전이 맞물리며 딥러닝이라는 이름의 다층 신경망 기법이 폭발적인 성능을 보이기 시작했다.
  • CNN, RNN, 트랜스포머 등 다양한 아키텍처가 이미지·음성·자연어 분야에 혁신을 일으키면서 AI의 대중화에 결정적 역할을 했다.
  • 딥러닝은 “기계가 스스로 문제 해결 방식을 학습한다”는 개념을 본격적으로 실현했지만, 설명 가능성, 편향, 에너지 소비 등 해결 과제도 안고 있다.

 

딥러닝이 본격화된 지금, AI는 어디로 향하고 있을까? 다음 장에서는 AI의 현주소와 π의 흔적을 짚어 보며, 이 모든 흐름이 π에서 출발한 기하학적·해석학적 사고와 어떻게 맞물려 있는지 살펴분다. “인공지능은 정말로 인간을 뛰어넘을 수 있을까?” “π로부터 영감을 받은 이 긴 여정은 앞으로 또 어떤 이야기를 써 내려갈까?”

 

 

6. AI의 현주소와 π의 흔적

 

언젠가부터 우리는 ‘인공지능(AI)’이란 말을 일상에서 자연스레 쓰게 되었다. 얼굴 인식으로 스마트폰의 잠금을 풀거나, 음성비서에게 알람을 맞추고 날씨 정보를 물어보며, 유튜브와 넷플릭스의 추천 목록을 받아들이는 광경은 이제 전혀 낯설지 않다. 몇 년 전만 해도 ‘영화 속 미래 기술’에 가깝게 여겨지던 AI가 실제 삶의 구석구석을 파고들고 있는 것이다. 특히 딥러닝이 돌풍을 일으킨 이후, 다양한 산업 분야에서 연구 개발이 활발해지면서 ‘AI는 곧 우리 사회의 중심 기술이 될 것’이라는 전망은 더 이상 과장이 아니다.

 

이처럼 AI가 일상화되는 과정을 돌아보면 곳곳에 π의 흔적이 녹아 있음을 발견하게 된다. 물론 요즘 AI 논문이나 제품 설명서에서 “이 시스템은 π를 활용했다”라고 직접 언급하는 경우는 드물다. 하지만 우리가 익혀 온 미적분, 푸리에 해석, 통계·확률론, 선형대수 등은 모두 π를 이해하면서 함께 발전해 온 수학의 기둥들이다. 원의 성질을 근사하고, 주기 함수를 분해하며, 연속함수를 적분하는 데 빠지지 않고 등장하는 그 상수가 우리에게 남겨 준 유산은 결코 작지 않다. ‘원의 성질을 밝히는’ 집요한 태도가 그 시작이었다면, AI는 그러한 태도를 극대화한 시대적 결실이라고 볼 수 있다.

 

신경망 학습의 내부를 살펴보면 미분 연산이 쉴 새 없이 수행된다. 역전파를 통해 오차를 최소화하려면 편미분 값을 반복적으로 계산해야 하기 때문이다. 또, 음성이나 이미지 데이터를 다룰 때 푸리에 변환이나 기타 주파수 해석 기법이 쓰이는 일은 여전하다. π가 맨 앞줄에 등장하진 않지만, ‘주기적 함수’로 가득한 삼각함수와 지수함수, 그리고 연속성을 다루는 적분·미분 개념이 빈틈없이 펼쳐져 있다는 점에서 π는 이런 알고리즘들의 밑바탕에 흐르는 공통된 언어라고 할 수 있다.

 

더욱 흥미로운 것은, AI가 ‘창의성’이나 ‘사고 과정’과 결부되면서 “인간만의 특징이라 여겨지던 지적 능력이 기계로 넘어가고 있는가?” 하는 논의다. 이미 예술·음악·문학 등 분야에서 AI가 만든 작품들이 사람들을 깜짝 놀라게 하고 있고, 챗봇이 자연스러운 대화까지 시도한다. 비록 오늘날 AI 모델은 무한정 많은 데이터와 방대한 연산 자원을 투입해야만 그런 ‘창의적인 결과’를 내놓을 수 있지만, 그 형태가 점점 더 인간이 가진 능력에 근접해 가는 건 분명해 보인다. 이 지점에서 π가 상징하는 ‘무한성’과 ‘완벽함’의 아이러니가 떠오른다. “언뜻 완벽해 보이지만, 실제로는 끝없는 반복과 나열 속에서 겨우 근사해 가는 과정”. 이건 어쩌면 지금의 AI가 걷는 길과 닮아 있지 않을까?

 

물론 한계도 명확하다. AI가 아무리 성능이 좋아졌다 해도, 여전히 빅데이터와 막대한 전력 소비에 기반해 있고, 윤리적·사회적 문제나 설명 가능성의 결여라는 딜레마를 안고 있다. 현실에서는 단순 계산 능력을 뛰어넘어, 맥락과 의미를 정확히 파악하는 분야에서 아직 AI가 인간을 완전히 능가하지 못한다는 평가가 많다. 이는 곧 π가 지닌 초월성처럼, AI도 ‘쉽게 닿을 수 없는 지점’을 향해 끝없이 확장해 가는 중이라는 걸 시사한다. 아직은 전능이 아닌, 영원히 풀리지 않을 수도 있는 어떤 문제를 향해 꾸준히 근사해 가는 과정일 뿐이다.

 

결국, AI는 π로 상징되는 인류의 수학적 집념과 경험적 지혜가 21세기 기술 혁명과 어우러진 결과물이다. 맨 처음 시작은 “원을 어떻게 정확히 그릴까?”라는 사소한 호기심이었을지 몰라도, 거기에서 씨앗을 얻은 기하학과 해석학, 신호처리, 머신러닝 이론이 쌓이고 엮여서, 수억의 계산 단계를 한 번에 처리하는 딥러닝 시스템에 이른 것이다. 이 과정을 되짚어 보면 인류가 얼마나 오랜 시간에 걸쳐 π라는 수에 담긴 무한한 가능성을 조금씩 이해해 왔는지 새삼 깨닫게 된다.

 

언젠가 AI가 진정한 의미에서 ‘스스로 생각’할 수 있는 경지에 도달할지 여부는 아직 미지수다. 하지만 적어도 우리에게 중요한 사실은, 지금의 AI가 바로 ‘작은 호기심과 수학적 끈질김에서 비롯된 거대한 혁신’의 결정체라는 점이다. 한 점에서 시작해 도형과 함수로, 신호와 데이터로, 그리고 학습과 지능으로 뻗어 나간 이 엄청난 연결 고리가 앞으로도 계속 이어질 것이며, 그 근본엔 원과 π가 남겨 준 무한한 수학적 영감이 흐르고 있다.

 

요약

 

  • AI가 일상화되면서, 스마트폰·음성비서·추천 시스템 등 다양한 곳에서 인공지능 기술이 보편화되었다.
  • π가 직접 언급되진 않더라도, 미적분·푸리에 해석·확률론 등 AI 알고리즘의 토대가 된 수학엔 π의 개념이 깊이 스며 있다.
  • 빅데이터와 막대한 계산 자원 덕분에 AI가 빠르게 발전했지만, 편향·윤리·설명 가능성 등 여러 문제가 제기되고 있고, 여전히 ‘완벽함’은 요원하다.
  • AI는 π가 상징하는 ‘끝없는 탐구’의 현대적 산물이며, 인류가 꾸준히 이어 온 수학적·과학적 전통과 결을 함께해 왔다.

 

 


 

 

마치며

 

‘원을 정확하게 이해하겠다’는 사소해 보이는 호기심에서 시작된 수많은 시도들은 사실상 인류 역사의 거대한 전환들을 이끌어 온 힘이었다. 1장에서 원과 π를 다루면서, 고대부터 사람들은 이미 ‘끝없이 반복되는 소수’를 품은 원주율이 완벽해 보이면서도 풀리지 않는 수수께끼라는 점에 깊은 매력을 느꼈다. 그 호기심은 기하학을 정교하게 발전시키는 원동력이 되었고, 2장에서는 기하학적 사고방식이 ‘해석학(미적분)’으로 이어지면서 자연현상의 연속적 변화를 수식으로 다루게 된 과정을 살폈다. 이 때 ‘무한히 쪼개고 합해 보는 사고’는 미분·적분이라는 강력한 도구를 탄생시켜, 과학·공학 전반에 혁신적인 지평을 열었다.

 

해석학의 수단을 디지털 시대에 접목한 것은 3장에서 다룬 ‘신호처리 기법의 발전’이었다. 아날로그 신호를 디지털 데이터로 전환하고, 필요한 부분을 추출·분석·압축하는 과정에서 우리는 푸리에 해석 같은 핵심 이론이 얼마나 큰 역할을 하는지 확인했다. 이어 4장에서는 이렇게 모인 방대한 데이터와 통계·확률 이론이 결합되어, 컴퓨터가 스스로 규칙을 찾아내는 ‘머신러닝’ 패러다임이 떠오르는 장면을 조명했다. 사람 대신 기계가 패턴을 학습한다는 발상은 다소 급진적으로 보였지만, 이미 쌓여 있던 수학·공학적 기반 덕분에 현실화될 수 있었다.

 

그리고 5장에서는 인공신경망, 특히 딥러닝이 산업과 학계에서 실제 성과를 내며 AI 분야의 총아로 떠오른 과정을 살펴보았다. 퍼셉트론에서부터 역전파, 그리고 빅데이터·GPU 시대로 이어지는 연대기는 “기술이 준비될 때까지 혁신이 잠시 멈춰 있을 뿐, 절대 사라지지 않는다”라는 진리를 보여 주었다. 마지막으로 6장에서는 지금 우리 앞에 펼쳐진 AI 세상이 과연 무엇을 의미하며, 그 흐름 속에서 π가 보여 준 ‘무한성과 완벽함’의 은유를 다시금 되새겼다. 비록 최첨단 AI가 π를 직접 언급하지는 않지만, 그 발판을 이루는 미적분·푸리에 해석·확률론이라는 길 위에는 언제나 π가 함께하고 있다는 점이다.

 

이 글의 주제인 ‘파이(π)부터 현재 AI까지’라는 여정은 인류가 작은 호기심을 어떻게 세심하게 파고들었는지를 보여 주는 하나의 상징이라 할 수 있다. 원주율에 대한 단순한 궁금증이 기하학을 낳았고, 기하학은 해석학으로 발전해 자연현상을 정밀히 이해하게 했으며, 이어지는 신호처리와 머신러닝, 그리고 딥러닝 AI의 급성장은 오늘날 우리가 사는 방식을 근본적으로 변화시켰다. π가 상징하는 ‘무한히 이어지는 탐색과 근사’는 결국 “AI가 어디까지 발전할 수 있을까?”라는 현대 과학기술의 물음과 맞닿아 있다. 끝내 정복되지 않는 어떤 초월적 지점이 있더라도, 인류는 이토록 오랜 세월에 걸쳐 작은 날갯짓을 모아 큰 비행을 일궈 왔으니 앞으로도 그 가능성은 분명히 열려 있을 것이다.

 

“이것이 ‘π’와 ‘AI’가 촘촘히 잇닿아 있는 이유이며, 인류가 꾸준히 새 지평을 향해 나아가는 원동력이다.”

 

 


 

 

참고

 

매년 3월 14일은 원주율 파이(π)를 기념하는 ‘파이의 날’이다. 파이의 날에는 주로 파이 종류의 음식을 먹으며, 세계 각국에서 다채로운 수학 행사를 개최한다. 아인슈타인의 생일이면서 스티븐 호킹의 기일이기도 하다.

 

댓글 입력