AI 용어 정리

1. LLM(Large Language Model) : 방대한 지식을 학습한 똑똑한 두뇌

  • 정의 : LLM은 인간의 언어를 이해하고 생성하도록 수많은 텍스트 데이터(책, 웹 문서, 논문 등)를 학습한 매우 큰 인공지능 모델입니다.
  • 쉬운 예시 :
    • 당신은 수많은 백과사전, 위키피디아, 논문들을 전부 읽고 모든 내용을 머릿속에 외운 사람입니다. 누군가가 대한민국의 수도는 어디야?라고 물으면, 당신은 이미 외운 지식을 바탕으로 서울입니다.라고 즉시 대답할 수 있습니다.
  • 핵심 역할 : LLM은 이처럼 방대한 학습 데이터를 기반으로 질문에 답하고, 글을 요약하거나, 새로운 글을 창작하는 등 다양한 언어 관련 작업을 수행합니다. 하지만 LLM은 학습된 시점 이후의 최신 정보나, 학습 데이터에 포함되지 않은 비공개 정보(예: 우리 회사의 내부 문서)에 대해서는 알지 못한다는 한계가 있습니다.
  • 참고 유튜브 : https://www.youtube.com/shorts/DIakADzFXbE

 

2. RAG(Retrieval-Augmented Generation) : 최신 정보를 찾아오는 비서

  • 정의 : RAG는 LLM이 답변을 생성하기 전에, 외부 데이터베이스에서 관련된 정보를 검색(Retrieval)하여 그 정보를 LLM에게 추가로 제공하고 답변을 생성(Generation)하게 하는 기술입니다.
  • 쉬운 예시 :
    • 당신은 똑똑한 두뇌(LLM)를 가지고 있지만, 2024년까지만의 정보를 알고 있습니다. 누군가가 2025년 스마트폰 시장 트렌드는?이라고 물어봅니다. 당신의 두뇌(LLM)는 답변할 수 없습니다.
    • 이때, 당신의 비서(RAG)가 최신 뉴스 기사(외부 데이터베이스)를 찾아와서 2025년에는 AI 기능이 강화된 스마트폰이 트렌드입니다.라는 정보를 제공합니다. 당신(LLM)은 이 최신 정보를 바탕으로 더 정확하고 구체적인 답변을 생성합니다.
  • 핵심 역할 : RAG는 LLM의 지식을 보강하여, 최신 정보 부족, 환각 현상(없는 사실을 지어내는 것) 같은 문제를 해결하고, 답변의 신뢰성을 높여줍니다.

 

3. MCP(Model Context Protocol) : 여러 AI 모델과 외부 도구들을 연결하는 규칙

  • 정의 : MCP는 여러 AI 모델들이 서로 정보를 주고받고, 외부 시스템(데이터베이스, 캘린더, API 등)과 협력할 수 있도록 하는 표준화된 '언어' 또는 '규칙'입니다.
  • 쉬운 예시 :
    • 당신(LLM)은 똑똑한 두뇌입니다. 하지만 캘린더에 일정을 등록하거나, 데이터베이스에서 파일을 찾는 등의 행동은 할 수 없습니다.
    • MCP는 캘린더 앱에 '내일 오후 2시에 미팅'이라는 일정을 등록해줘"라는 명령을 표준화된 형식으로 번역해서, 캘린더 앱이 이해할 수 있도록 전달합니다. 이때 캘린더 앱은 당신의 요청을 이해하고 일정을 등록한 후, 일정 등록이 완료되었습니다.라는 응답을 다시 당신에게 보내줍니다.
    • 일반 API 콜과의 차이점은 API의 경우 JSON 이든 XML 이든 데이터 규격을 만들어서 보내줘야 하는데 MCP는 외부 시스템과 상호작용을 할 때, 해당 요청을 LLM을 사용하여 정의하는 규약이다.
    • 실제 서비스 : 스포티파이
  • 핵심 역할 : MCP는 AI가 단순한 질문-답변을 넘어, 실제로 외부 세계와 상호작용하고 복잡한 작업을 수행할 수 있도록 돕는 기술입니다. 여러 개의 AI 모델이 협력하는 멀티 에이전트 시스템이나, AI가 다양한 외부 도구들을 활용하는 복합 서비스에서 특히 중요한 역할을 합니다.

 

최종 정리 : 이 셋의 관계

  • LLM : AI 시스템의 '두뇌' 역할을 합니다. 지식 기반의 답변을 생성합니다.
  • RAG : LLM의 지식을 확장하는 기술입니다. 외부의 최신 정보를 찾아와 LLM의 답변을 보강합니다.
  • MCP : LLM이 외부 세계와 소통하고 행동할 수 있도록 하는 기술입니다. 여러 AI 모델과 외부 도구들을 연결합니다
  • 쉽게 말해, 똑똑한 두뇌(LLM)가 최신 정보를 찾아오는 비서(RAG)와 외부 도구들을 연결해주는 통역사(MCP)와 함께 일하는 것이라고 이해하면 됩니다. 이 세 가지 기술이 결합되어야만, AI는 단순한 챗봇을 넘어 실제 세계의 복잡한 문제를 해결하는 유능한 도구가 될 수 있습니다.

 

4. 로스(Loss) 개념 : 모델의 잘못을 측정하는 자

  • 정의 : 로스(Loss), 또는 손실 함수(Loss Function)는 모델이 예측한 값과 실제 정답 값의 차이를 수치로 나타내는 함수입니다. 이 값이 클수록 모델이 예측을 잘못했다는 의미이고, 작을수록 잘 예측했다는 의미입니다.
  • 쉬운 예시 :
    • 문제 : 내일 서울의 최고 기온은?
    • 정답 : 30도
    • 모델의 예측 : 25도
    • 로스 계산 : 모델은 5도만큼 틀렸습니다. 5라는 수치를 로스 함수를 통해 계산합니다. 이 5라는 숫자가 바로 모델의 잘못을 나타내는 로스 값입니다.
  • 결론 : 로스는 모델이 얼마나 정답과 다른지 측정하는 측정 도구입니다.

 

5. 미분 : 어느 방향으로 움직여야 로스가 줄어들까?

  • 정의 : 미분은 특정 지점에서의 변화율을 나타냅니다. 딥러닝에서는 '로스'를 '모델의 매개변수'에 대해 미분합니다. 이것은 모델의 각 매개변수(가중치)를 아주 조금씩 바꿨을 때, 로스가 얼마나 변하는지를 계산하는 것입니다.
  • 쉬운 예시 :
    • 당신은 산 정상(가장 로스가 높은 곳)에 서 있습니다. 목표는 산 아래(가장 로스가 낮은 곳)로 내려가는 것입니다. 미분은 지금 서 있는 곳에서 앞, 뒤, 왼쪽, 오른쪽 중 어느 방향으로 가면 가장 가파르게 아래로 내려갈 수 있는지를 알려주는 도구입니다.
  • 결론 : 미분은 로스 값을 줄이기 위해 매개변수를 어떤 방향으로 얼마나 바꿔야 하는지를 알려주는 방향 지시계입니다.

 

6. 경사하강법(Gradient Descent) : 방향 지시를 따라 조금씩 움직이는 방법

  • 정의 : 경사하강법은 미분이 알려준 방향으로 조금씩 움직여서 로스 값을 줄여나가는 알고리즘입니다.
  • 쉬운 예시 :
    • 미분이 오른쪽으로 가면 가장 가파르게 내려갈 수 있습니다.라고 알려줬습니다. 경사하강법은 좋아, 그럼 오른쪽으로 한 발짝만 움직이자.고 실행합니다. 그리고 다시 미분을 계산하여 새로운 방향을 찾고, 또 한 발짝 움직입니다. 이 과정을 반복하여 결국 산 아래(로스 값이 가장 낮은 곳)에 도착합니다.
  • 결론 : 경사하강법은 미분을 활용해 로스를 최소화하는 매개변수를 찾아가는 반복적인 과정입니다.

 

7. 백프로파게이션(Backpropagation) : 수많은 매개변수의 미분을 한 번에 계산하는 방법

  • 정의 : 백프로파게이션은 경사하강법을 효율적으로 수행하기 위해 모델의 모든 매개변수에 대한 미분(경사)을 한 번에 계산하는 특별한 알고리즘입니다.
  • 배경 : 딥러닝 모델은 수백만, 수십억 개의 매개변수(가중치)를 가지고 있습니다. 이 모든 매개변수의 미분을 일일이 계산하는 것은 매우 비효율적입니다.
  • 쉬운 예시 :
    • 로스 계산은 모델의 마지막 단계에서 나옵니다. 백프로파게이션은 이 마지막 단계에서부터 거꾸로(Backward) 계산을 전파(Propagation)하면서 각 단계에 있는 모든 매개변수의 미분 값을 효율적으로 구해냅니다.
  • 결론 : 백프로파게이션은 경사하강법에 필요한 미분 값을 모든 매개변수에 대해 빠르게 계산해주는 기술입니다.

 

8. 최적화(Optimization) : 더 똑똑하게 움직이는 방법

  • 정의 : 최적화는 경사하강법을 더 빠르고 효율적으로 개선하는 모든 방법을 통칭하는 용어입니다. 기본적인 경사하강법은 한 번에 한 발짝씩만 움직이는 단순한 방법이지만, 최적화 기법들은 이 과정을 훨씬 더 똑똑하게 만듭니다.
  • 쉬운 예시 :
    • 기본 경사하강법은 눈을 가린 채 미분이 알려준 방향으로 한 발짝씩만 움직입니다. 최적화 기법은 다음과 같이 움직입니다.
    • Adam, Adamolo, Adafactor 등: 눈을 감고 움직여도, 이전에 움직였던 방향과 속도를 기억해서 더 빨리 움직이자, 움직이는 발걸음의 크기를 조절해서 너무 멀리 가거나 너무 느리게 가지 않도록 하자.
  • 결론 : 최적화는 경사하강법의 성능을 향상시켜 모델 학습을 더 빠르고 안정적으로 만드는 모든 기술을 말하며, Adam, Adafactor 등은 그 구체적인 방법들입니다.

 

최종 정리

  • 로스 : 모델이 얼마나 틀렸는지 측정.
  • 미분 : 로스를 줄이려면 어떤 방향으로 매개변수를 바꿔야 하는지 계산.
  • 경사하강법: 미분이 알려준 방향으로 조금씩 매개변수를 업데이트.
  • 백프로파게이션 : 이 모든 매개변수의 미분 값을 빠르게 계산하는 기술.
  • 최적화 : 이 과정을 더 빠르고 똑똑하게 만드는 모든 기술 (Adam, Adafactor 등).

'AI > AI Guide' 카테고리의 다른 글

AI 대학 무료 강의 및 자료  (0) 2025.08.01