AI 인공지능 관련 용어 총정리│AI 용어 필수 개념

이 글에서는 AI 인공지능 관련 용어 총정리│AI 용어 필수 개념에 대해 알아봅니다. AI 인공지능과 관련된 필수 개념들을 쉽게 이해하실 수 있도록 용어들을 정리해 보았습니다. 여러분의 AI 학습 여정에 도움이 되기를 바랍니다. 자세한 내용은 아래 목차를 참고해 주세요.

AI 인공지능 관련 용어 총정리│AI 용어 필수 개념

인공지능 기술이 우리 삶 곳곳에 스며들면서 관련 용어들을 접할 기회가 많아졌습니다. 하지만 다소 생소하고 어렵게 느껴지는 용어들 때문에 인공지능 기술에 대한 이해가 어려울 수 있습니다. 이 글에서는 인공지능과 관련된 필수적인 개념들을 친절하고 자세하게 설명하여 여러분의 이해를 돕고자 합니다.

인공지능 (AI: Artificial Intelligence)

인공지능은 인간의 학습능력, 추론능력, 지각능력, 자연언어 이해능력 등을 컴퓨터 프로그램으로 실현하는 기술입니다. 쉽게 말해, 기계가 인간처럼 생각하고 행동하도록 만드는 것이죠. 인공지능은 특정한 문제를 해결하기 위한 소프트웨어부터, 인간과 유사한 사고방식을 가진 로봇까지 다양한 형태로 구현될 수 있습니다.

머신러닝 (ML: Machine Learning)

머신러닝은 인공지능의 한 분야로, 컴퓨터가 데이터를 통해 스스로 학습하고, 이를 바탕으로 예측이나 판단을 내릴 수 있도록 하는 기술입니다. 기존의 프로그래밍 방식처럼 모든 규칙을 일일이 사람이 정의하는 대신, 데이터를 통해 컴퓨터가 스스로 규칙을 학습하게 합니다. 예를 들어, 스팸 메일 분류 시스템은 다량의 스팸 메일 데이터를 학습하여 스스로 스팸 메일을 판별하는 규칙을 만들어냅니다.

딥러닝 (DL: Deep Learning)

딥러닝은 머신러닝의 한 분야로, 인공 신경망(ANN)을 여러 겹으로 쌓아서 복잡한 패턴을 학습하는 기술입니다. 인간의 뇌 신경망 구조에서 영감을 받아 개발되었으며, 이미지 인식, 음성 인식, 자연어 처리 등 다양한 분야에서 뛰어난 성능을 보입니다. 딥러닝은 대량의 데이터와 높은 연산 능력을 필요로 하지만, 복잡한 문제에 대해 높은 정확도를 제공합니다.

자연어 처리 (NLP: Natural Language Processing)

자연어 처리는 인간의 언어를 컴퓨터가 이해하고 처리할 수 있도록 하는 기술입니다. 텍스트 분석, 기계 번역, 챗봇, 음성 인식 등 다양한 분야에 활용됩니다. NLP는 단순한 단어 매칭을 넘어, 문맥과 의도를 파악하여 인간과 자연스럽게 소통할 수 있도록 하는 것을 목표로 합니다.

컴퓨터 비전 (Computer Vision)

컴퓨터 비전은 컴퓨터가 이미지나 비디오와 같은 시각 정보를 이해하고 분석할 수 있도록 하는 기술입니다. 이미지 분류, 객체 탐지, 얼굴 인식, 이미지 생성 등 다양한 분야에 활용됩니다. 자율주행 자동차, 의료 영상 분석, 로봇 시스템 등에서 핵심적인 역할을 합니다.

강화 학습 (Reinforcement Learning)

강화 학습은 에이전트가 주어진 환경에서 최적의 행동을 학습하는 방법입니다. 에이전트는 행동에 따른 보상을 통해 학습하며, 최대의 보상을 얻을 수 있는 행동 전략을 스스로 찾아냅니다. 게임 플레이, 로봇 제어, 자원 관리 등 다양한 분야에서 활용되고 있습니다.

데이터셋 (Dataset)

데이터셋은 머신러닝 모델을 학습시키는 데 사용되는 데이터들의 집합입니다. 데이터셋의 품질은 머신러닝 모델의 성능에 큰 영향을 미칩니다. 다양하고 정확한 데이터로 구성된 데이터셋을 사용해야 좋은 성능의 모델을 만들 수 있습니다.

알고리즘 (Algorithm)

알고리즘은 특정 문제를 해결하기 위한 일련의 명령어 또는 규칙의 집합입니다. 머신러닝에서는 데이터를 분석하고 학습하는 과정을 정의하는 데 사용됩니다. 다양한 머신러닝 알고리즘들이 존재하며, 문제의 특성에 따라 적절한 알고리즘을 선택해야 합니다.

모델 (Model)

모델은 데이터를 학습한 결과물입니다. 입력 데이터에 대한 예측이나 분류를 수행할 수 있습니다. 머신러닝에서는 학습 데이터를 사용하여 모델을 생성하고, 이 모델을 통해 새로운 데이터에 대한 예측을 수행합니다. 모델의 성능은 정확도, 정밀도, 재현율 등 다양한 지표로 평가할 수 있습니다.

이처럼 인공지능은 다양한 개념들이 서로 연결되어 발전하고 있으며, 앞으로 더욱 발전하여 우리 삶에 큰 변화를 가져올 것으로 예상됩니다. 위에 설명된 용어들에 대한 이해를 바탕으로 인공지능 기술의 발전과 활용에 대해 더욱 깊이 있는 관심을 가져보시길 바랍니다.

AI 관련 용어 총정리

지도 학습 (Supervised Learning)

지도 학습은 입력 데이터와 그에 대한 정답 레이블이 함께 제공되는 학습 방법입니다. 컴퓨터는 입력 데이터와 정답 레이블 간의 관계를 학습하여 새로운 입력 데이터에 대한 정답을 예측합니다. 마치 선생님이 학생에게 정답을 알려주면서 가르치는 것과 유사합니다. 지도 학습은 이미지 분류, 스팸 메일 감지, 주택 가격 예측 등 다양한 분야에 활용됩니다. 대표적인 지도 학습 알고리즘으로는 선형 회귀, 로지스틱 회귀, 서포트 벡터 머신, 의사 결정 트리 등이 있습니다. 예를 들어, 동물 이미지와 그 이미지에 해당하는 동물 종류(고양이, 강아지, 새 등) 레이블을 함께 제공하여 모델을 학습시키면, 새롭게 입력된 동물 이미지에 대해 해당 동물의 종류를 예측할 수 있게 됩니다. 지도 학습은 현재 머신러닝에서 가장 널리 사용되는 학습 방법 중 하나입니다.

비지도 학습 (Unsupervised Learning)

비지도 학습은 정답 레이블 없이 입력 데이터만을 사용하여 학습하는 방법입니다. 컴퓨터는 데이터에서 스스로 패턴, 구조, 특징 등을 파악하고 데이터를 그룹화하거나 숨겨진 정보를 추출합니다. 비지도 학습은 데이터의 특징을 이해하고 데이터의 구조를 파악하는 데 유용합니다. 대표적인 비지도 학습 알고리즘으로는 K-평균 군집화, 계층적 군집화, 주성분 분석, 연관 규칙 학습 등이 있습니다. 예를 들어, 고객들의 구매 데이터를 이용하여 비슷한 구매 패턴을 가진 고객들을 그룹화하여 마케팅 전략을 수립하거나, 제품의 특징을 분석하여 새로운 제품을 개발하는 데 활용할 수 있습니다.

준지도 학습 (Semi-Supervised Learning)

준지도 학습은 레이블이 지정된 데이터와 레이블이 지정되지 않은 데이터를 모두 사용하여 학습하는 방법입니다. 레이블이 지정된 데이터가 부족한 경우, 레이블이 지정되지 않은 데이터를 활용하여 모델의 성능을 향상시킬 수 있습니다. 레이블링 작업은 비용과 시간이 많이 소요될 수 있기 때문에, 준지도 학습은 레이블링된 데이터가 제한적인 상황에서 유용하게 활용될 수 있습니다. 예를 들어, 의료 이미지 분석에서 소량의 레이블링된 이미지 데이터와 대량의 레이블링되지 않은 이미지 데이터를 함께 사용하여 질병 진단 모델의 성능을 향상시킬 수 있습니다.

전이 학습 (Transfer Learning)

전이 학습은 이미 학습된 모델을 새로운 문제에 적용하는 학습 방법입니다. 대규모 데이터셋으로 학습된 모델의 지식을 활용하여 새로운 문제에 대한 모델 학습을 빠르고 효율적으로 수행할 수 있습니다. 새로운 문제에 대한 학습 데이터가 부족한 경우에도, 전이 학습을 통해 높은 성능의 모델을 구축할 수 있습니다. 예를 들어, ImageNet 데이터셋으로 사전 학습된 이미지 분류 모델을 특정 질병 이미지 분류에 적용할 수 있습니다. 이때, 사전 학습된 모델의 가중치를 초기값으로 사용하여 학습하면 소량의 질병 이미지 데이터만으로도 높은 성능의 질병 분류 모델을 얻을 수 있습니다.

생성적 적대 신경망 (GAN: Generative Adversarial Network)

GAN은 두 개의 신경망, 생성자(Generator)와 판별자(Discriminator)가 서로 경쟁하며 학습하는 딥러닝 모델입니다. 생성자는 새로운 데이터를 생성하고, 판별자는 생성된 데이터가 실제 데이터인지 아니면 생성된 데이터인지 판별합니다. 생성자는 판별자를 속이도록 학습하고, 판별자는 생성자를 잘 구별하도록 학습하는 과정을 통해, 생성자는 실제 데이터와 유사한 가짜 데이터를 생성할 수 있게 됩니다. GAN은 이미지 생성, 텍스트 생성, 음악 생성 등 다양한 분야에서 활용됩니다.

과적합 (Overfitting)

과적합은 학습 데이터에 지나치게 적합되어 학습 데이터에서는 높은 성능을 보이지만, 새로운 데이터에서는 낮은 성능을 보이는 현상입니다. 모델이 학습 데이터의 노이즈까지 학습하여 일반화 성능이 떨어지는 경우 발생합니다. 과적합을 방지하기 위해서는 데이터 증강, 정규화, 드롭아웃, 조기 종료 등의 기법을 사용할 수 있습니다.

편향-분산 트레이드오프 (Bias-Variance Tradeoff)

편향은 모델의 예측값과 실제값의 차이를 나타내며, 분산은 모델의 예측값의 변동성을 나타냅니다. 편향이 높으면 과소 적합(Underfitting)이 발생하고, 분산이 높으면 과적합이 발생합니다. 머신러닝 모델 학습의 목표는 편향과 분산을 모두 줄여 일반화 성능이 높은 모델을 만드는 것입니다. 하지만, 편향과 분산은 서로 상반되는 관계를 가지므로, 적절한 균형을 찾는 것이 중요합니다. 이를 편향-분산 트레이드오프라고 합니다.

추론 (Inference)

학습된 모델을 사용하여 새로운 데이터에 대한 예측이나 분류를 수행하는 과정을 추론이라고 합니다. 모델 학습 단계를 마친 후, 실제 환경에서 입력 데이터를 모델에 적용하여 결과를 얻어내는 단계입니다. 예를 들어, 이미지 분류 모델을 학습시킨 후, 새로운 이미지를 입력하면 해당 이미지가 어떤 종류에 속하는지 예측하는 것이 추론입니다. 추론 과정에서는 모델의 성능, 속도, 효율성 등이 중요한 요소로 작용합니다. 빠르고 정확한 추론을 위해서는 모델의 크기, 사용하는 하드웨어 등을 고려해야 합니다.

배치 (Batch)

머신러닝 모델 학습 과정에서 한 번에 처리하는 데이터 묶음을 배치라고 합니다. 전체 데이터셋을 여러 개의 배치로 나누어 학습하는 방식을 배치 학습이라고 하며, 각 배치에 대한 손실 함수의 평균을 계산하여 모델의 가중치를 업데이트합니다. 배치 크기는 모델 학습에 중요한 영향을 미치는데, 배치 크기가 크면 학습 속도가 빠르지만 메모리 요구량이 높아지고, 배치 크기가 작으면 학습 속도가 느리지만 안정적인 학습이 가능합니다. 적절한 배치 크기를 선택하는 것은 모델의 성능과 학습 효율을 고려하여 결정해야 하는 중요한 과제입니다.

에포크 (Epoch)

전체 데이터셋에 대해 한 번 학습을 진행하는 것을 1 에포크라고 합니다. 모델 학습 과정은 여러 에포크를 반복하며 진행되는데, 각 에포크마다 전체 데이터셋을 사용하여 모델의 가중치를 업데이트합니다. 일반적으로 에포크 수가 증가할수록 모델의 성능이 향상되지만, 과도한 에포크는 과적합을 유발할 수 있습니다. 따라서 적절한 에포크 수를 설정하는 것이 중요하며, 검증 데이터셋을 활용하여 모델의 성능을 모니터링하며 최적의 에포크 수를 결정할 수 있습니다.

하이퍼파라미터 (Hyperparameter)

모델 학습 전에 미리 설정해야 하는 값들을 하이퍼파라미터라고 합니다. 학습률, 배치 크기, 에포크 수, 규제 강도 등이 대표적인 하이퍼파라미터입니다. 하이퍼파라미터는 모델 학습 과정에 직접적으로 관여하지 않지만, 학습 결과에 큰 영향을 미칩니다. 따라서 최적의 하이퍼파라미터 값을 찾는 것은 머신러닝 모델 개발에서 매우 중요한 과제이며, 그리드 탐색, 랜덤 탐색, 베이지안 최적화 등 다양한 방법들이 사용됩니다. 적절한 하이퍼파라미터 설정은 모델의 성능을 크게 향상시킬 수 있지만, 많은 시행착오와 시간 투자가 필요한 작업입니다.

손실 함수 (Loss Function)

모델의 예측값과 실제값의 차이를 측정하는 함수를 손실 함수라고 합니다. 머신러닝 모델 학습의 목표는 손실 함수를 최소화하는 방향으로 모델의 가중치를 업데이트하는 것입니다. 손실 함수는 문제의 특성에 따라 다르게 정의되며, 회귀 문제에서는 평균 제곱 오차(MSE), 분류 문제에서는 크로스 엔트로피(Cross-entropy) 등이 일반적으로 사용됩니다. 손실 함수의 선택은 모델 학습 결과에 큰 영향을 미치므로, 문제에 적합한 손실 함수를 선택하는 것이 중요합니다.

옵티마이저 (Optimizer)

모델의 손실 함수를 최소화하기 위해 모델의 가중치를 업데이트하는 알고리즘을 옵티마이저라고 합니다. 경사 하강법(Gradient Descent), 확률적 경사 하강법(Stochastic Gradient Descent), Adam, RMSprop 등 다양한 옵티마이저 알고리즘이 존재하며, 각 알고리즘은 서로 다른 방식으로 가중치를 업데이트합니다. 옵티마이저의 선택은 학습 속도, 안정성, 수렴 속도 등에 영향을 미치므로, 문제의 특성과 데이터셋 크기 등을 고려하여 적절한 옵티마이저를 선택해야 합니다.

평가 지표 (Evaluation Metric)

학습된 모델의 성능을 측정하는 기준을 평가 지표라고 합니다. 정확도(Accuracy), 정밀도(Precision), 재현율(Recall), F1 점수, AUC(Area Under the Curve) 등 다양한 평가 지표가 존재하며, 문제의 특성과 목표에 따라 적절한 평가 지표를 선택해야 합니다. 예를 들어, 질병 진단과 같은 문제에서는 재현율이 중요한 지표가 될 수 있으며, 스팸 메일 분류에서는 정밀도가 중요한 지표가 될 수 있습니다. 여러 평가 지표를 종합적으로 고려하여 모델의 성능을 평가하는 것이 바람직합니다.

MLOps (Machine Learning Operations)

MLOps는 머신러닝 모델의 개발, 배포, 운영, 관리를 위한 일련의 프로세스와 도구들을 통합하는 방법론입니다. DevOps 개념을 머신러닝 분야에 적용한 것으로, 모델 개발 속도 향상, 모델 배포 자동화, 모델 성능 모니터링 및 관리 등을 목표로 합니다. MLOps는 머신러닝 모델을 실제 환경에서 안정적이고 효율적으로 운영하기 위한 필수적인 요소로 자리 잡고 있으며, 다양한 MLOps 플랫폼과 도구들이 개발되고 있습니다. MLOps를 도입하여 머신러닝 모델의 라이프사이클을 효율적으로 관리하고 운영함으로써 비즈니스 가치 창출을 가속화할 수 있습니다.

AI 인공지능 용어 모음집

설명 가능한 AI (XAI: Explainable AI)

설명 가능한 AI(XAI)는 AI 모델의 의사 결정 과정을 이해하고 해석할 수 있도록 하는 기술입니다. 복잡한 딥러닝 모델은 높은 성능을 보이지만, 내부 작동 방식이 불투명하여 “블랙박스”라고 불리기도 합니다. XAI는 이러한 블랙박스 모델의 의사 결정 과정을 투명하게 만들어 모델의 신뢰성을 높이고, 편향이나 오류를 파악하고 수정하는 데 도움을 줍니다. XAI 기법을 사용하면 모델이 특정 예측을 왜 내렸는지, 어떤 특징이 중요하게 작용했는지 등을 파악할 수 있습니다. 예를 들어, 의료 진단 모델에서 XAI는 어떤 의료 영상 특징이 질병 진단에 중요한 역할을 했는지 의사에게 설명하여 진단의 정확성과 신뢰도를 높일 수 있습니다. XAI는 AI 모델의 책임성과 투명성을 확보하는 데 필수적인 기술로, 다양한 분야에서 활용될 가능성이 높습니다. XAI는 LIME(Local Interpretable Model-agnostic Explanations), SHAP (SHapley Additive exPlanations) 등의 기법을 포함합니다.

연합 학습 (Federated Learning)

연합 학습은 여러 기기 또는 서버에 분산된 데이터를 사용하여 중앙 서버 없이 머신러닝 모델을 학습하는 방법입니다. 개인정보 보호 문제로 인해 데이터 공유가 어려운 경우, 각 기기에서 로컬로 모델을 학습하고 학습된 모델의 파라미터만 중앙 서버로 전송하여 통합하는 방식으로 학습을 진행합니다. 원본 데이터는 각 기기에 남아있기 때문에 개인정보를 보호하면서도 효과적인 모델 학습이 가능합니다. 예를 들어, 스마트폰의 사용 패턴 데이터를 사용하여 키보드 입력 예측 모델을 학습하는 경우, 연합 학습을 통해 사용자의 개인정보를 보호하면서도 효과적인 모델 학습이 가능합니다. 연합 학습은 의료, 금융 등 데이터 민감도가 높은 분야에서 유용하게 활용될 수 있습니다.

엣지 컴퓨팅 (Edge Computing)

엣지 컴퓨팅은 데이터가 생성되는 장소 근처에서 데이터를 처리하고 분석하는 컴퓨팅 방식입니다. 클라우드 컴퓨팅과 달리 데이터를 중앙 서버로 전송하지 않고, 엣지 디바이스(예: 스마트폰, IoT 센서)에서 직접 데이터를 처리하기 때문에 지연 시간을 줄이고 대역폭 사용량을 줄일 수 있습니다. AI 모델 추론을 엣지 디바이스에서 수행하면 실시간 응답이 중요한 자율주행, 스마트 팩토리 등의 분야에서 유용합니다. 또한, 네트워크 연결이 불안정한 환경에서도 안정적인 AI 서비스를 제공할 수 있습니다.

양자 컴퓨팅 (Quantum Computing)

양자 컴퓨팅은 양자 역학 원리를 이용하여 정보를 처리하는 컴퓨팅 방식입니다. 기존 컴퓨터와 달리 큐비트(Qubit)를 사용하여 정보를 표현하며, 중첩과 얽힘과 같은 양자 현상을 활용하여 기존 컴퓨터로는 해결하기 어려운 복잡한 문제를 해결할 수 있을 것으로 기대됩니다. 양자 컴퓨팅은 머신러닝 알고리즘의 학습 속도를 높이고, 새로운 머신러닝 알고리즘 개발을 가능하게 할 잠재력을 가지고 있습니다. 아직은 초기 단계에 있지만, 향후 AI 분야에 큰 영향을 미칠 것으로 예상됩니다.

증강 현실 (AR: Augmented Reality)과 가상 현실 (VR: Virtual Reality)에서의 AI 활용

AI는 증강 현실(AR)과 가상 현실(VR) 기술과 결합하여 더욱 몰입감 있는 사용자 경험을 제공할 수 있습니다. AR에서는 컴퓨터 비전 기술을 활용하여 실제 환경에 가상 객체를 정확하게 배치하고, 사용자와 가상 객체의 상호작용을 가능하게 합니다. VR에서는 AI 기반의 가상 캐릭터 생성, 환경 생성, 사용자 행동 분석 등을 통해 더욱 현실적이고 개인화된 가상 환경을 구현할 수 있습니다. AR/VR과 AI의 결합은 게임, 교육, 의료, 제조 등 다양한 분야에서 혁신적인 서비스를 창출할 것으로 기대됩니다.

AI 윤리 (AI Ethics)

AI 기술이 발전함에 따라 AI의 윤리적인 문제에 대한 관심이 높아지고 있습니다. AI 모델의 편향성, 개인정보 보호, 책임성, 투명성 등은 AI 윤리의 주요 논의 주제입니다. AI 윤리를 고려하지 않은 AI 개발 및 활용은 사회적 불평등, 차별, 프라이버시 침해 등의 문제를 야기할 수 있습니다. 따라서 AI 개발자, 연구자, 정책 입안자들은 AI 윤리 원칙을 준수하고, 윤리적인 AI 시스템 구축을 위해 노력해야 합니다.

AI 거버넌스 (AI Governance)

AI 거버넌스는 AI 개발 및 활용에 대한 규칙, 정책, 프로세스를 수립하고 관리하는 것을 의미합니다. AI 거버넌스는 AI의 안전성, 신뢰성, 윤리성을 확보하고, AI가 사회에 미치는 부정적인 영향을 최소화하기 위해 필요합니다. AI 거버넌스 체계 구축을 통해 AI 기술의 책임있는 개발과 활용을 촉진하고, AI가 인류에게 이로운 방향으로 발전할 수 있도록 지원해야 합니다.

인간 중심 AI (Human-Centered AI)

인간 중심 AI는 인간의 존엄성, 권리, 안전을 최우선으로 고려하여 개발되고 활용되는 AI를 의미합니다. 인간 중심 AI는 인간의 능력을 증강하고, 삶의 질을 향상시키는 데 기여해야 합니다. AI 개발 과정에서 인간의 가치를 중심에 두고, AI가 인간 사회에 긍정적인 영향을 미칠 수 있도록 지속적인 노력이 필요합니다. 인간과 AI의 협력을 통해 더 나은 미래를 만들어갈 수 있도록 다양한 분야에서의 연구와 개발이 진행되고 있습니다.

퓨샷 학습 (Few-Shot Learning)

퓨샷 학습은 아주 제한된 수의 학습 데이터만으로 모델을 학습시키는 머신러닝 기법입니다. 이름에서 알 수 있듯이 “few(적은)” “shot(사례)”만을 사용하여 학습하는 것이 특징입니다. 전통적인 머신러닝은 방대한 데이터셋이 필요하지만, 퓨샷 학습은 이러한 제약을 극복하고자 합니다. 데이터 수집이 어렵거나 비용이 많이 드는 분야, 또는 새로운 개념이나 제품이 빠르게 등장하는 분야에서 특히 유용합니다. 예를 들어 새로운 종류의 꽃을 분류하는 모델을 학습시킨다고 가정해 봅시다. 전통적인 방법이라면 수천 장의 사진이 필요하겠지만, 퓨샷 학습은 각 종류별로 단 몇 장의 사진만으로도 학습을 시도합니다. 이는 모델이 데이터의 기본적인 특징을 빠르게 파악하고 일반화하는 능력을 향상시키는 데 중점을 두기 때문입니다. 퓨샷 학습은 메타 러닝(Meta-Learning) 기법을 활용하는 경우가 많습니다. 메타 러닝은 “학습하는 방법을 학습하는” 방법으로, 다양한 작업에 대한 경험을 통해 새로운 작업에 대한 학습 능력을 향상시킵니다. 퓨샷 학습을 통해 데이터 부족 문제를 해결하고, 새로운 상황에 대한 적응력을 향상시켜 AI 모델의 활용 범위를 넓힐 수 있습니다.

원샷 학습 (One-Shot Learning)

원샷 학습은 단 하나의 데이터만으로 모델을 학습시키는 극단적인 형태의 퓨샷 학습입니다. “one(하나의)” “shot(사례)”만을 사용하기 때문에 붙여진 이름입니다. 사람은 새로운 사물을 단 한 번만 봐도 그것을 기억하고 다음에 다시 봤을 때 알아볼 수 있습니다. 원샷 학습은 이러한 인간의 학습 능력을 모방하고자 합니다. 이를 위해 Siamese 네트워크와 같은 특수한 신경망 구조를 사용하거나 메트릭 러닝 기법을 사용하기도 합니다. Siamese 네트워크는 두 개의 입력을 받아 유사도를 비교하는 방식으로 학습하며, 메트릭 러닝은 데이터 간의 유사도를 측정하는 방식으로 학습합니다. 원샷 학습을 통해 모델은 단 하나의 예시를 통해 새로운 개념을 학습하고, 이를 바탕으로 유사한 다른 데이터를 인식하거나 분류할 수 있습니다. 예를 들어, 얼굴 인식 시스템에서 새로운 사용자의 얼굴 사진 한 장만으로 등록하여 다음번 방문 시 인식할 수 있게 하는 데 사용될 수 있습니다. 원샷 학습은 데이터 획득이 매우 어려운 분야나 개인 맞춤형 서비스를 제공하는 데 유용하게 활용될 수 있습니다.

제로샷 학습 (Zero-Shot Learning)

제로샷 학습은 학습 데이터 없이 모델을 학습시키는 것을 목표로 하는, 다소 역설적으로 들릴 수 있는 머신러닝 패러다임입니다. 학습 데이터가 “zero(없는)” 상태에서 학습을 진행하기 때문에 이러한 이름이 붙었습니다. 그렇다면 어떻게 학습 데이터 없이 학습이 가능할까요? 제로샷 학습은 기존에 학습한 지식을 활용하고, 추가적인 정보를 통해 새로운 개념을 추론하는 방식으로 작동합니다. 예를 들어 동물 이미지 분류 모델을 학습시킨다고 가정해 봅시다. “얼룩말” 이미지는 학습 데이터에 없지만, 모델은 “말”과 “줄무늬”라는 개념을 이미 알고 있다면 이 두 가지 정보를 조합하여 얼룩말을 “줄무늬가 있는 말”로 인식할 수 있습니다. 이처럼 제로샷 학습은 새로운 클래스에 대한 설명이나 속성 정보를 활용하여 학습 데이터 없이도 새로운 개념을 이해하고 분류하는 것을 가능하게 합니다. 이는 시각적 특징뿐 아니라 텍스트 정보, 지식 그래프 등을 활용하여 학습할 수 있습니다. 제로샷 학습은 끊임없이 새로운 개념이 등장하는 분야에서 유용하며, 데이터 수집의 한계를 극복하고 AI 시스템의 적응력을 극대화하는데 기여합니다.

자기 지도 학습 (Self-Supervised Learning)

자기 지도 학습은 데이터 자체에서 레이블을 생성하여 학습하는 방식입니다. 레이블이 없는 데이터를 사용하기 때문에 비지도 학습의 한 형태로 볼 수 있지만, 학습 과정에서 스스로 레이블을 생성한다는 점에서 차이가 있습니다. 데이터의 일부를 가리고 나머지 부분으로 가려진 부분을 예측하거나, 데이터의 순서를 변경하고 원래 순서를 맞추는 등 다양한 방법으로 레이블을 생성할 수 있습니다. 이렇게 생성된 레이블을 사용하여 모델을 학습시키면, 많은 양의 레이블이 없는 데이터로부터 유용한 특징 표현을 학습할 수 있습니다. 예를 들어, 이미지의 일부를 가리고 가려진 부분을 예측하도록 학습시키면 이미지의 전체적인 구조와 특징을 파악하는 능력을 향상시킬 수 있습니다. 자기 지도 학습은 대규모 데이터셋에 대한 레이블링 비용을 절감하고, 모델의 일반화 성능을 향상시키는 데 효과적입니다. 특히, 컴퓨터 비전 및 자연어 처리 분야에서 활발하게 연구되고 있으며, 레이블링 된 데이터가 부족한 상황에서 유용하게 사용될 수 있습니다.

능동 학습 (Active Learning)

능동 학습은 모델이 스스로 학습에 필요한 데이터를 선택하는 학습 방법입니다. 모델이 불확실하게 예측하는 데이터나 가장 유익한 정보를 제공할 것으로 예상되는 데이터를 우선적으로 선택하여 레이블링을 요청합니다. 이를 통해 제한된 예산으로 최대한의 학습 효과를 얻을 수 있습니다.

전통적인 지도 학습에서는 무작위로 선택된 데이터에 레이블을 지정하지만, 능동 학습은 모델이 학습 과정에 적극적으로 개입하여 가장 효율적인 학습을 가능하게 합니다.

온라인 학습 (Online Learning)

온라인 학습은 데이터가 순차적으로 입력되는 환경에서 실시간으로 모델을 업데이트하는 학습 방법입니다. 데이터가 한 번에 모두 주어지는 배치 학습과 달리, 온라인 학습은 데이터가 들어올 때마다 모델을 업데이트하여 변화하는 환경에 적응합니다. 예를 들어 주식 시장 예측이나 스트리밍 데이터 분석과 같이 실시간으로 변화하는 데이터를 다루는 경우에 유용합니다.

새로운 데이터가 입력될 때마다 모델은 예측을 수행하고, 실제 값과 비교하여 오차를 계산합니다. 이 오차를 기반으로 모델의 파라미터를 업데이트하여 다음 예측의 정확도를 높입니다. 온라인 학습은 변화하는 환경에 빠르게 적응하고, 메모리 사용량을 줄일 수 있다는 장점이 있습니다. 하지만 노이즈가 많은 데이터에 민감할 수 있으며, 잘못된 데이터 입력으로 인해 모델의 성능이 저하될 수 있으므로 주의가 필요합니다.

메타 러닝 (Meta-Learning)

메타 러닝은 “학습하는 방법을 배우는” 학습 전략입니다. 전통적인 머신러닝은 특정 작업에 대한 모델을 학습시키는 데 집중하지만, 메타 러닝은 다양한 작업에 대한 경험을 통해 새로운 작업에 대한 학습 능력 자체를 향상시키는 것을 목표로 합니다. 마치 경험 많은 장인이 새로운 기술을 습득할 때 기존의 경험과 노하우를 활용하여 빠르게 적응하는 것과 유사합니다. 메타 러닝은 다양한 작업을 통해 모델이 작업에 대한 일반적인 지식 또는 학습 전략을 습득하도록 유도합니다. 이렇게 학습된 메타 지식은 새로운, unseen task에 직면했을 때 빠르게 적응하고 효율적으로 학습하는 데 활용됩니다. 예를 들어, 다양한 종류의 이미지 분류 작업을 경험한 메타 러닝 모델은 새로운 종류의 이미지 분류 작업에 대해 적은 양의 데이터만으로도 빠르게 학습하고 높은 성능을 달성할 수 있습니다. 메타 러닝은 퓨샷 러닝, 원샷 러닝과 같은 소량의 데이터로 학습하는 분야에서 핵심적인 역할을 하며, 로봇 제어, 자연어 처리 등 다양한 영역에서 활용될 수 있습니다.

임베딩 (Embedding)

임베딩은 단어, 문장, 이미지 등의 고차원 데이터를 저차원의 벡터로 표현하는 기술입니다. 이 벡터는 데이터의 의미적인 특징을 담고 있으며, 머신러닝 모델의 입력으로 사용될 수 있습니다. 예를 들어, “king”과 “queen”이라는 단어는 의미적으로 유사하기 때문에 임베딩 공간에서 가까운 위치에 표현될 것입니다. 반대로, “king”과 “table”은 의미적으로 관련이 없기 때문에 임베딩 공간에서 멀리 떨어져 있을 것입니다. 임베딩은 단어 유사도 계산, 텍스트 분류, 기계 번역 등 자연어 처리 분야뿐 아니라, 추천 시스템, 이상 탐지 등 다양한 영역에서 활용됩니다. 대표적인 임베딩 기법으로는 Word2Vec, GloVe, FastText 등이 있으며, 이미지 임베딩에는 CNN 기반의 방법들이 주로 사용됩니다. 고차원 데이터를 저차원 벡터로 표현함으로써 계산 효율성을 높이고, 의미적인 유사도를 효과적으로 활용할 수 있습니다.

자동 머신러닝 (AutoML: Automated Machine Learning)

AutoML은 머신러닝 모델 개발 과정을 자동화하는 기술입니다. 전통적인 머신러닝 모델 개발은 데이터 전처리, 특징 엔지니어링, 모델 선택, 하이퍼파라미터 최적화 등 여러 단계를 거치며, 각 단계마다 전문 지식과 많은 시간이 필요합니다. AutoML은 이러한 과정을 자동화하여 머신러닝 전문가가 아니더라도 효율적으로 모델을 개발할 수 있도록 지원합니다. AutoML은 다양한 알고리즘과 기법을 사용하여 최적의 모델을 자동으로 찾아줍니다. 예를 들어, 주어진 데이터셋에 대해 다양한 머신러닝 알고리즘(선형 회귀, 의사 결정 트리, 랜덤 포레스트 등)을 적용하고, 각 알고리즘에 대한 하이퍼파라미터 최적화를 자동으로 수행하여 가장 성능이 좋은 모델을 선택합니다. AutoML을 통해 머신러닝 모델 개발 시간을 단축하고, 전문가가 아니더라도 고품질 모델을 개발할 수 있습니다. AutoML은 클라우드 기반 서비스 또는 오픈 소스 라이브러리 형태로 제공되고 있으며, 다양한 분야에서 활용될 수 있습니다.

지식 증류 (Knowledge Distillation)

지식 증류는 큰 모델(Teacher model)이 학습한 지식을 작은 모델(Student model)에 전달하는 기술입니다. 큰 모델은 성능이 뛰어나지만 계산 비용이 높아 실제 환경에서 사용하기 어려울 수 있습니다. 지식 증류는 큰 모델의 지식을 작은 모델에 전달하여 작은 모델의 성능을 향상시키고, 추론 속도를 높이는 데 사용됩니다. 큰 모델의 출력(soft target)을 작은 모델의 학습 목표로 사용하여 작은 모델이 큰 모델의 예측 능력을 모방하도록 학습시킵니다. 예를 들어, 이미지 분류에서 복잡한 딥러닝 모델(Teacher)을 학습시킨 후, 작고 빠른 모델(Student)이 Teacher 모델의 출력 분포를 학습하도록 하면, Student 모델은 Teacher 모델의 성능에 근접하는 성능을 보일 수 있습니다. 지식 증류는 모바일 기기, IoT 기기와 같이 계산 자원이 제한된 환경에서 고성능 AI 모델을 사용하기 위한 효과적인 방법입니다.

Prompt Engineering (프롬프트 엔지니어링)

Prompt Engineering은 대형 언어 모델(LLM)과 같은 생성 AI 모델에서 원하는 결과를 얻기 위해 입력 프롬프트를 설계하고 최적화하는 기술입니다. 모델에 명확하고 효과적인 지시를 내리는 것이 중요하며, 프롬프트에 따라 모델의 출력 품질이 크게 달라질 수 있습니다. 원하는 작업을 구체적으로 명시하고, 예시를 제공하거나, 제약 조건을 추가하는 등 다양한 방법으로 프롬프트를 설계할 수 있습니다. 예를 들어, “한국 역사에 대해 요약해줘”라는 단순한 프롬프트 대신, “조선 시대의 주요 사건을 시간 순서대로 요약하고, 각 사건의 중요성을 간략하게 설명해줘” 와 같이 구체적인 프롬프트를 사용하면 더욱 정확하고 유용한 결과를 얻을 수 있습니다. 최근 LLM의 발전과 함께 프롬프트 엔지니어링의 중요성이 더욱 커지고 있으며, 효과적인 프롬프트 설계를 통해 AI 모델의 잠재력을 최대한 활용할 수 있습니다.

파운데이션 모델 (Foundation Model)

파운데이션 모델은 방대한 양의 데이터로 학습된 대규모 AI 모델을 의미합니다. 일반적으로 트랜스포머(Transformer) 아키텍처 기반의 딥러닝 모델을 사용하며, 텍스트, 이미지, 코드 등 다양한 형태의 데이터를 학습할 수 있습니다. 파운데이션 모델은 특정 작업에 대해 미세 조정 없이도 다양한 작업을 수행할 수 있으며, 퓨샷 러닝이나 제로샷 러닝과 같은 학습 전략을 통해 적은 양의 데이터로 새로운 작업에 적응할 수 있습니다. 대표적인 파운데이션 모델로는 GPT-3, BERT, DALL-E2 등이 있으며, 자연어 처리, 컴퓨터 비전, 음성 인식 등 다양한 분야에서 활용되고 있습니다. 파운데이션 모델은 AI 분야의 중요한 발전 방향 중 하나로, 향후 더욱 다양한 분야에서 혁신적인 AI 서비스를 제공할 것으로 기대됩니다.

환각 (Hallucination)

AI 모델, 특히 대형 언어 모델(LLM)에서 발생하는 환각 현상은 모델이 사실과 다른 정보를 생성하거나, 사실인 것처럼 꾸며내는 것을 의미합니다. 모델이 학습 데이터에 없는 정보를 요청받거나, 모호한 질문에 답변할 때, 또는 학습 데이터의 편향을 반영하여 잘못된 정보를 생성할 수 있습니다. 환각은 마치 사람이 꿈을 꾸거나 환상을 보는 것과 유사하다고 볼 수 있습니다. 이러한 현상은 모델의 신뢰성을 저해하고, 잘못된 정보 확산으로 이어질 수 있기 때문에 중요한 문제로 인식되고 있습니다. 예를 들어, 역사적 사건에 대한 질문에 대해 모델이 실제로 일어나지 않은 사건을 마치 사실인 것처럼 묘사할 수 있습니다. 환각 문제를 해결하기 위해 사실 검증 기법, 지식 그래프 활용, 강화 학습 등 다양한 연구가 진행되고 있습니다.

이 글에서는 AI 인공지능 관련 용어 총정리에 대해 알아보았습니다. 감사합니다.

AI 인공지능 관련 용어 총정리│AI 용어 필수 개념