기법/방법론고급
Distillation
지식 증류 · Knowledge Distillation
큰 모델의 지식을 작은 모델로 전이해 성능을 유지하면서 크기를 줄이는 기법
#효율성#모델압축
AI 관련 용어를 쉽게 이해할 수 있도록 정리했습니다.
지식 증류 · Knowledge Distillation
큰 모델의 지식을 작은 모델로 전이해 성능을 유지하면서 크기를 줄이는 기법
엣지 AI · Edge AI
클라우드가 아니라 사용자 기기에서 AI 모델을 실행하는 기술
임베딩 · Embedding
텍스트, 이미지 등을 고차원 벡터로 변환해 의미를 수치화하는 기법
퓨샷 · Few-shot Learning
소수의 예시를 제공해 LLM이 패턴을 학습하도록 하는 기법
미세조정 · Fine-tuning
사전학습된 모델을 특정 작업 데이터로 추가 학습해 성능을 개선하는 기법
기반 모델 · Foundation Model
다양한 하류 작업에 적용 가능한 대규모 사전학습 모델
생성형 사전학습 변환기 · Generative Pre-trained Transformer
OpenAI에서 개발한 생성형 언어 모델 시리즈
그래픽 처리 장치 · Graphics Processing Unit
병렬 처리에 최적화된 하드웨어로 AI 모델 학습과 추론을 가속화하는 장치
가드레일 · Guardrails
AI 모델이 유해하거나 부적절한 출력을 하지 않도록 제한하는 메커니즘
할루시네이션 · Hallucination
LLM이 사실이 아닌 정보를 마치 사실인 것처럼 생성하는 현상
하네스 · Harness
프롬프트와 LLM을 함께 관리하는 프레임워크 또는 도구
추론 · Inference
학습이 완료된 모델을 사용해 새로운 데이터에 대한 예측을 생성하는 과정