인공지능 머신러닝
1. 개요
1. 개요
인공지능 머신러닝은 인공지능의 한 분야로, 컴퓨터가 명시적인 프로그래밍 없이도 데이터로부터 학습하여 성능을 향상시키는 기술을 의미한다. 이는 컴퓨터가 경험을 통해 스스로 패턴을 인식하고 결정을 내리는 능력을 갖추도록 하는 것을 목표로 한다. 머신러닝의 핵심은 알고리즘이 데이터를 분석하고, 그 안에 숨겨진 규칙이나 관계를 모델로 만들어 예측이나 판단에 활용하는 데 있다.
머신러닝은 전통적인 소프트웨어 개발 방식과 근본적으로 다르다. 기존 방식은 문제 해결을 위한 모든 규칙과 논리를 프로그래머가 직접 코드로 작성해야 했다. 반면 머신러닝은 방대한 양의 데이터와 원하는 출력(결과)을 제공하면, 알고리즘이 스스로 입력과 출력 사이의 복잡한 매핑 함수를 학습한다. 이렇게 학습된 모델은 새로운, 이전에 본 적 없는 데이터에 대해서도 예측을 수행할 수 있다.
머신러닝의 발전은 빅데이터의 확산, 컴퓨팅 성능의 비약적 향상, 그리고 효율적인 알고리즘의 등장 덕분에 가능해졌다. 이 기술은 현재 컴퓨터 비전, 자연어 처리, 추천 시스템, 의료 진단, 금융 예측 등 현대 사회의 수많은 분야에서 혁신을 주도하고 있다. 머신러닝은 단순한 기술 도구를 넘어, 데이터 중심 의사결정의 새로운 패러다임을 구축하는 기반이 되었다.
2. 기본 개념
2. 기본 개념
머신러닝은 인공지능의 한 분야로, 컴퓨터가 명시적인 프로그래밍 없이 데이터로부터 패턴을 학습하여 예측이나 결정을 수행하는 기술이다. 이 학습 방법은 주어진 데이터의 유형과 해결하려는 문제의 성격에 따라 크게 세 가지 주요 패러다임으로 구분된다.
첫째, 지도 학습은 레이블이 지정된 훈련 데이터를 사용하는 방법이다. 입력 데이터와 그에 해당하는 정답(레이블)을 함께 제공하여, 입력과 출력 사이의 관계를 학습하는 함수를 만드는 것이 목표이다. 이는 주로 분류(예: 스팸 메일 판별)나 회귀(예: 주택 가격 예측) 문제에 적용된다. 둘째, 비지도 학습은 레이블이 없는 데이터에서 숨겨진 구조나 패턴을 발견하는 데 사용된다. 데이터의 군집을 찾는 클러스터링이나 데이터의 차원을 축소하는 차원 축소가 대표적인 예이다. 셋째, 강화 학습은 에이전트가 환경과 상호작용하며 보상을 최대화하는 행동 방식을 학습하는 패러다임이다. 시행착오를 통해 학습하며, 게임 플레이나 로봇 제어 같은 순차적 의사결정 문제에 적합하다.
이 세 가지 기본 개념은 다음과 같이 비교할 수 있다.
학습 유형 | 학습 데이터 | 목표 | 주요 응용 예시 |
|---|---|---|---|
입력과 정답(레이블) 쌍 | 입력-출력 관계 학습 | 분류, 회귀 분석 | |
레이블 없는 데이터 | 데이터 내 구조 발견 | 클러스터링, 연관 규칙 학습 | |
보상 신호 | 누적 보상 최대화 정책 학습 | 게임 AI, 자율 주행 |
이러한 기본 개념의 선택은 해결하려는 문제, 사용 가능한 데이터의 형태, 그리고 원하는 결과에 따라 결정된다. 많은 실제 문제들은 이들 패러다임을 혼합한 접근법을 요구하기도 한다[1].
2.1. 지도 학습
2.1. 지도 학습
지도 학습은 인공지능 머신러닝의 주요 패러다임 중 하나로, 입력 데이터와 그에 해당하는 정답 레이블(출력)의 쌍으로 구성된 훈련 데이터를 사용하여 모델을 학습시키는 방법이다. 학습 알고리즘은 주어진 입력(예: 이메일 텍스트)과 원하는 출력(예: '스팸' 또는 '정상' 레이블) 사이의 매핑 관계를 찾아내는 것을 목표로 한다. 이 과정을 통해 모델은 보지 못한 새로운 데이터에 대해 정확한 예측이나 분류를 수행할 수 있는 능력을 획득한다.
지도 학습의 주요 작업은 분류와 회귀로 나뉜다. 분류 작업은 입력 데이터를 미리 정의된 몇 개의 불연속적인 범주 중 하나로 할당하는 것이다. 예를 들어, 손글씨 숫자 이미지를 0부터 9까지의 숫자로 분류하거나, 고객 리뷰를 '긍정', '부정', '중립'으로 구분하는 것이 여기에 해당한다. 반면, 회귀 작업은 연속적인 수치 값을 예측하는 것이다. 주택의 크기, 위치 등의 특징을 바탕으로 가격을 예측하거나, 과거 판매 데이터를 기반으로 미래 매출을 추정하는 것이 대표적인 회귀 문제이다.
작업 유형 | 목표 | 입력 예시 | 출력 예시 |
|---|---|---|---|
분류 | 불연속 레이블 예측 | 이메일 내용, 이미지 | 스팸/정상, 고양이/강아지 |
회귀 | 연속 수치 예측 | 주택 면적, 연도 | 주택 가격, 온도 |
이 학습 방식은 레이블이 붙은 대규모 데이터셋이 필요하며, 데이터의 양과 질이 모델 성능에 직접적인 영향을 미친다. 레이블링 작업은 종종 수작업으로 이루어지기 때문에 시간과 비용이 많이 소요될 수 있다. 지도 학습은 스팸 필터링, 의료 영상 진단, 신용 점수 예측 등 현실 세계의 다양한 예측 문제에 널리 적용되고 있다.
2.2. 비지도 학습
2.2. 비지도 학습
비지도 학습은 지도 학습과 달리 사전에 레이블이 지정된 정답 데이터 없이, 입력 데이터 자체의 숨겨진 구조나 패턴을 발견하는 머신러닝 방법이다. 주어진 데이터의 내재적 분포나 군집, 관계를 학습하는 데 초점을 맞춘다. 이 방식은 데이터에 대한 사전 지식이 부족할 때 유용하며, 데이터 탐색이나 전처리 단계에서 자주 활용된다.
비지도 학습의 주요 목표는 크게 군집화와 차원 축소로 나뉜다. 군집화는 유사한 특성을 가진 데이터 포인트들을 같은 그룹으로 묶는 작업이다. 대표적인 알고리즘으로는 K-평균 군집화와 계층적 군집화가 있다. 차원 축소는 고차원 데이터의 정보를 최대한 유지하면서 저차원 공간으로 변환하는 기법으로, 주성분 분석과 t-SNE 등이 널리 사용된다. 이는 데이터 시각화나 노이즈 제거에 효과적이다.
비지도 학습은 다양한 실용적 문제에 적용된다. 예를 들어, 고객 세분화를 위해 구매 패턴 데이터를 군집화하거나, 문서 주제 모델링을 위해 잠재 디리클레 할당을 사용한다. 또한, 이상 탐지 분야에서 정상 데이터의 패턴을 학습하여 이를 벗어나는 이상치를 찾아내는 데에도 활용된다.
주요 기법 유형 | 설명 | 대표 알고리즘 예시 |
|---|---|---|
군집화 | 데이터를 유사성에 기반하여 그룹으로 분류 | K-평균, DBSCAN, 가우시안 혼합 모델 |
차원 축소 | 데이터의 특징 수를 줄이면서 구조 보존 | 주성분 분석(PCA), 특이값 분해(SVD) |
연관 규칙 학습 | 데이터 항목 간의 빈번한 동시 발생 관계 발견 | Apriori, FP-Growth |
밀도 추정 | 데이터의 확률 분포 모델링 | 커널 밀도 추정, 가우시안 혼합 모델 |
이러한 기법들은 데이터의 잠재적 통찰을 제공하지만, 결과의 평가가 주관적일 수 있고 목표가 명확히 정의되지 않아 해석에 주의가 필요하다는 한계도 지닌다.
2.3. 강화 학습
2.3. 강화 학습
강화 학습은 에이전트가 환경과 상호작용하며 보상을 최대화하는 행동을 학습하는 머신러닝 패러다임이다. 지도 학습이나 비지도 학습과 달리, 명시적인 정답 데이터나 레이블이 제공되지 않는다. 대신 에이전트는 시행착오를 통해 어떤 행동이 더 많은 보상을 이끌어내는지 탐색하고, 이를 바탕으로 최적의 정책을 학습한다.
학습 과정은 일반적으로 마르코프 결정 과정으로 모델링된다. 에이전트는 특정 상태에서 가능한 행동 중 하나를 선택하고, 환경은 그 결과로 새로운 상태와 보상을 에이전트에게 제공한다. 핵심 목표는 시간에 따라 축적된 총 보상, 즉 누적 보상을 최대화하는 것이다. 이를 위해 큐-러닝이나 정책 경사 방법과 같은 다양한 알고리즘이 사용된다.
알고리즘 유형 | 주요 개념 | 대표 알고리즘 |
|---|---|---|
가치 기반 | 상태나 행동의 가치 함수를 학습 | |
정책 기반 | 최적의 행동 정책을 직접 학습 | |
액터-크리틱 | 가치 함수와 정책을 함께 학습 |
강화 학습은 연속적인 의사결정이 필요한 복잡한 문제에 효과적으로 적용된다. 대표적인 성공 사례로는 알파고와 같은 게임 AI, 로봇 제어, 자율 주행, 자원 관리 시스템 등이 있다. 그러나 학습에 필요한 데이터 수집 비용이 크고, 학습 과정이 불안정할 수 있으며, 안전이 중요한 실제 환경에 적용하기 위한 연구가 활발히 진행 중이다.
3. 주요 알고리즘
3. 주요 알고리즘
주요 알고리즘은 머신러닝의 핵심적인 방법론으로, 데이터에서 패턴을 학습하거나 예측을 수행하기 위한 수학적 모델과 절차를 의미한다. 이 알고리즘들은 해결하려는 문제의 유형과 데이터의 특성에 따라 선택된다. 가장 기본적이고 널리 사용되는 알고리즘으로는 선형 회귀, 의사결정 나무, 신경망 등이 있다.
선형 회귀는 지도 학습의 대표적인 회귀 분석 알고리즘이다. 이 알고리즘은 독립 변수와 종속 변수 간의 선형 관계를 모델링하여, 새로운 독립 변수 값이 주어졌을 때 종속 변수의 값을 예측한다. 모델은 데이터 포인트들에 가장 잘 맞는 직선(또는 초평면)의 기울기와 절편을 찾는 방식으로 학습한다. 단순한 구조 덕분에 해석이 용이하고 계산 비용이 낮은 장점이 있지만, 변수 간 복잡한 비선형 관계를 모델링하기에는 한계가 있다.
의사결정 나무는 분류와 회귀 모두에 사용할 수 있는 알고리즘이다. 데이터의 특징을 기반으로 일련의 질문(예: '나이가 30세 이상인가?')을 통해 결정을 내리는 나무 구조의 모델을 만든다. 각 내부 노드는 하나의 특징에 대한 조건을 나타내고, 각 가지는 조건의 결과를, 각 리프 노드는 최종 예측값을 나타낸다. 이 알고리즘은 모델의 결정 과정을 시각적으로 쉽게 이해할 수 있어 설명 가능성이 높다는 장점이 있다. 그러나 과적합되기 쉬워 랜덤 포레스트나 그래디언트 부스팅 같은 앙상블 방법으로 보완되는 경우가 많다.
신경망은 인간의 뇌 신경 구조에서 영감을 받아 설계된 알고리즘으로, 특히 딥러닝의 기반이 된다. 여러 층의 퍼셉트론으로 구성되어 있으며, 각 층은 데이터로부터 점진적으로 추상적인 특징을 추출한다. 아래 표는 세 가지 주요 알고리즘의 기본적인 특징을 비교한 것이다.
알고리즘 | 주요 유형 | 주요 특징 | 일반적인 사용 사례 |
|---|---|---|---|
회귀 | 해석 용이성, 계산 효율성, 선형 관계 모델링 | 주택 가격 예측, 판매량 예측 | |
분류, 회귀 | 설명 가능성, 비선형 관계 처리 가능 | 고객 이탈 예측, 신용 평가 | |
신경망 (기본) | 분류, 회귀 | 복잡한 패턴 학습, 높은 표현력, 많은 데이터 필요 | 패턴 인식, 기본적인 이미지 분류 |
이들 알고리즘은 각각의 장단점을 가지고 있으며, 실제 문제를 해결할 때는 데이터의 규모, 복잡도, 해석 가능성에 대한 요구사항 등을 고려하여 선택하거나 결합하여 사용한다.
3.1. 선형 회귀
3.1. 선형 회귀
선형 회귀는 지도 학습의 가장 기본적이고 널리 사용되는 회귀 분석 알고리즘이다. 이 알고리즘은 하나 이상의 독립 변수(예측 변수)와 하나의 종속 변수(목표 변수) 간의 선형 관계를 모델링하여, 독립 변수의 값을 기반으로 종속 변수의 값을 예측하는 데 사용된다. 주로 연속적인 수치를 예측하는 문제, 예를 들어 주택 가격 예측, 판매량 예측 등에 적용된다.
가장 간단한 형태는 하나의 독립 변수(x)와 하나의 종속 변수(y)를 사용하는 단순 선형 회귀이다. 이 모델은 데이터 포인트들에 가장 잘 맞는 일차 함수 직선(y = ax + b)을 찾는 것을 목표로 한다. 여기서 'a'는 기울기, 'b'는 y절편을 의미한다. 복수의 독립 변수를 사용하는 경우를 다중 선형 회귀라고 하며, 이는 고차원 공간에서 초평면을 찾는 문제로 확장된다.
모델을 훈련시킨다는 것은 주어진 훈련 데이터에 대해 예측값과 실제값 사이의 오차를 최소화하는 최적의 기울기와 절편을 찾는 과정이다. 이 오차를 최소화하기 위한 가장 일반적인 방법은 최소제곱법이다. 이 방법은 모든 데이터 포인트에 대한 예측 오차의 제곱의 합(잔차 제곱합)을 계산하고, 이 값을 최소화하는 매개변수를 수학적으로 또는 경사 하강법과 같은 반복적 알고리즘을 통해 도출한다.
선형 회귀의 결과 해석은 상대적으로 직관적이다. 각 독립 변수의 계수는 해당 변수가 종속 변수에 미치는 영향의 크기와 방향(양의 관계 또는 음의 관계)을 나타낸다. 그러나 선형 회귀는 변수 간의 선형 관계를 가정하기 때문에, 복잡한 비선형 관계를 모델링하는 데는 한계가 있다. 또한 이상치에 민감하게 반응할 수 있으며, 독립 변수들 간에 높은 상관관계가 존재하는 다중공선성 문제가 발생할 수 있다.
3.2. 의사결정 나무
3.2. 의사결정 나무
의사결정 나무는 분류와 회귀 분석에 모두 사용되는 지도 학습 알고리즘이다. 이 모델은 데이터의 특성에 기반하여 일련의 질문(규칙)을 통해 결정을 내리는 트리 구조를 만든다. 최상위 노드인 루트 노드에서 시작하여, 데이터는 조건에 따라 가지를 따라 내려가며, 최종 결정은 리프 노드에서 이루어진다. 이 구조는 인간의 의사결정 과정을 흉내 내어 이해와 해석이 비교적 쉽다는 장점을 가진다.
의사결정 나무를 구축하는 핵심은 각 노드에서 최적의 분할 기준을 찾는 것이다. 이는 불순도를 최소화하거나 정보 이득을 최대화하는 특성과 임계값을 선택하는 과정을 통해 이루어진다. 일반적으로 사용되는 지표로는 지니 불순도, 엔트로피, 분산 감소 등이 있다. 알고리즘은 모든 리프 노드가 순수해지거나 사전에 정한 중지 조건에 도달할 때까지 재귀적으로 분할을 반복한다.
알고리즘 변형 | 주요 특징 | 일반적인 용도 |
|---|---|---|
정보 이득을 기준으로 사용, 범주형 특성에 적합 | 분류 | |
지니 불순도를 주로 사용, 분류와 회귀 모두 지원 | 분류, 회귀 | |
ID3의 개선판, 연속형 특성과 결측값 처리 가능 | 분류 |
의사결정 나무는 단독으로 사용될 때 과적합에 취약할 수 있다. 이를 해결하기 위해 랜덤 포레스트나 그래디언트 부스팅 같은 앙상블 학습 방법에서 다수의 나무를 결합하여 사용하는 경우가 많다. 이러한 방식은 단일 나무의 불안정성을 보완하고 일반화 성능을 크게 향상시킨다.
3.3. 신경망
3.3. 신경망
신경망은 인공지능 머신러닝의 한 분야로, 인간의 뇌 신경 세포(뉴런)의 연결 구조에서 영감을 받아 설계된 계산 모델이다. 기본적인 구성 단위인 인공 뉴런은 여러 입력 신호를 받아 가중치를 곱하고, 편향을 더한 후 활성화 함수를 통과시켜 출력을 생성한다. 이러한 뉴런들이 여러 층으로 계층적으로 연결되어 복잡한 패턴을 학습할 수 있는 능력을 갖춘다.
신경망의 구조는 일반적으로 입력층, 하나 이상의 은닉층, 출력층으로 구성된다. 층이 깊어질수록 딥러닝으로 분류된다. 각 층 사이의 연결에는 가중치가 부여되며, 학습 과정에서 이 가중치들이 조정된다. 대표적인 학습 알고리즘으로는 오차를 역방향으로 전파하며 가중치를 업데이트하는 오차 역전파 알고리즘이 널리 사용된다.
다양한 유형의 신경망이 특정 문제 해결을 위해 발전되었다. 합성곱 신경망은 주로 컴퓨터 비전 분야에서 이미지 인식에 탁월한 성능을 보인다. 순환 신경망과 그 변형인 LSTM은 시계열 데이터나 자연어 처리와 같이 순차적 데이터의 처리에 적합하다. 생성적 적대 신경망은 새로운 데이터를 생성하는 데 특화되어 있다.
신경망의 성능은 구조의 깊이와 너비, 사용된 활성화 함수, 정규화 기법, 그리고 방대한 양의 훈련 데이터에 크게 의존한다. 그러나 모델이 복잡해질수록 과적합의 위험이 증가하고, 내부 결정 과정이 불투명해지는 블랙박스 문제가 발생할 수 있다. 이를 해결하기 위한 설명 가능한 인공지능 연구가 진행 중이다.
4. 학습 과정
4. 학습 과정
학습 과정은 머신러닝 모델을 구축하는 핵심 단계로, 일반적으로 데이터 준비, 모델 훈련, 그리고 성능 평가의 세 가지 주요 단계로 구성된다. 이 과정은 반복적이며, 각 단계의 결과에 따라 이전 단계로 돌아가 개선 작업을 수행하는 경우가 흔하다.
첫 번째 단계는 데이터 전처리이다. 원시 데이터는 누락된 값, 이상치, 불일치하는 형식 등을 포함하는 경우가 많아 모델 학습에 직접 사용하기 어렵다. 따라서 데이터를 수집하고 정제하며, 필요한 경우 정규화나 표준화를 통해 스케일을 조정한다. 또한, 모델의 일반화 성능을 높이기 위해 데이터를 훈련 세트, 검증 세트, 테스트 세트로 분할하는 작업이 필수적이다.
다음으로 모델 훈련 단계에서는 선택한 알고리즘에 처리된 데이터를 입력한다. 알고리즘은 데이터 내 패턴을 학습하기 위해 내부 매개변수(예: 가중치와 편향)를 조정한다. 이 조정은 주어진 손실 함수의 값을 최소화하거나 목표 함수를 최대화하는 방향으로 이루어진다. 훈련은 일반적으로 경사 하강법과 같은 최적화 기법을 통해 반복적으로 수행된다.
마지막으로, 평가 및 검증 단계에서는 훈련된 모델의 성능을 객관적으로 측정한다. 모델이 처음 보는 데이터(검증 세트나 테스트 세트)에 대해 얼마나 잘 예측하거나 분류하는지를 확인한다. 성능 지표는 문제 유형에 따라 다르며, 분류 문제에서는 정확도, 정밀도, 재현율, F1 점수 등을, 회귀 문제에서는 평균 제곱 오차(MSE)나 결정 계수(R²) 등을 사용한다. 이 평가 결과가 만족스럽지 않으면, 더 많은 데이터 수집, 하이퍼파라미터 튜닝, 또는 다른 알고리즘 시도 등으로 과정을 다시 반복한다.
4.1. 데이터 전처리
4.1. 데이터 전처리
데이터 전처리는 머신러닝 모델 훈련에 앞서 원시 데이터를 정제하고 변환하는 과정이다. 이 과정은 모델의 성능과 정확도에 직접적인 영향을 미치기 때문에 매우 중요하다. 일반적으로 수집된 원본 데이터는 결측치, 이상치, 불일치하는 형식 등을 포함하고 있어, 이를 그대로 사용하면 모델이 잘못된 패턴을 학습할 수 있다.
주요 전처리 작업에는 여러 단계가 포함된다. 먼저 결측치 처리는 데이터에서 값이 누락된 부분을 채우거나 제거하는 작업이다. 평균값이나 중앙값으로 대체하거나, 해당 행을 삭제하는 방법이 흔히 사용된다. 다음으로 이상치 탐지 및 처리는 정상 범위를 벗어나는 극단적인 값들을 식별하여 제거하거나 수정한다. 또한 데이터 정규화와 표준화는 서로 다른 범위와 단위를 가진 특성(Feature)들을 일정한 기준으로 조정하여, 특정 특성이 모델에 과도하게 영향을 미치는 것을 방지한다.
범주형 데이터를 다루기 위해서는 원-핫 인코딩과 같은 기법이 사용된다. 이는 텍스트 형태의 범주를 수치형 벡터로 변환하여 모델이 이해할 수 있도록 만든다. 예를 들어, '색상'이라는 특성이 '빨강', '파랑', '녹색'의 값을 가질 때, 각각을 [1,0,0], [0,1,0], [0,0,1]과 같은 벡터로 표현한다. 때로는 불필요하거나 중복된 특성을 제거하는 특성 선택 작업도 수행되어 모델의 복잡도를 줄이고 계산 효율성을 높인다.
전체적으로 데이터 전처리는 모델이 데이터의 본질적인 패턴에 집중할 수 있도록 돕는 필수적인 준비 단계이다. 잘 수행된 전처리는 더 빠른 수렴, 향상된 일반화 성능, 그리고 더 안정적인 예측 결과를 가져온다.
4.2. 모델 훈련
4.2. 모델 훈련
모델 훈련은 머신러닝의 핵심 단계로, 준비된 데이터를 사용하여 알고리즘이 패턴을 학습하거나 목표를 달성하도록 조정하는 과정이다. 이 과정에서 모델은 주어진 훈련 데이터를 기반으로 내부 매개변수(가중치와 편향)를 최적화한다. 훈련의 목표는 새로운, 보지 못한 데이터에 대해 정확한 예측이나 유의미한 결과를 생성하는 일반화 능력을 갖춘 모델을 만드는 것이다.
훈련은 일반적으로 손실 함수와 최적화 알고리즘을 통해 이루어진다. 손실 함수는 모델의 예측값과 실제 정답값 사이의 차이(오차)를 측정한다. 최적화 알고리즘, 가장 대표적으로 경사 하강법은 이 손실을 최소화하는 방향으로 모델의 매개변수를 반복적으로 업데이트한다. 이때 한 번에 사용하는 데이터 샘플의 양에 따라 배치 경사 하강법, 확률적 경사 하강법, 미니배치 경사 하강법 등으로 구분된다.
훈련 방식 | 설명 | 특징 |
|---|---|---|
배치 학습 | 전체 훈련 데이터셋을 한 번에 사용하여 매개변수 업데이트 | 안정적이지만 계산 비용이 크고 대용량 데이터 처리에 비효율적 |
온라인 학습 | 데이터를 한 개씩 순차적으로 입력하여 모델을 점진적으로 업데이트 | 변화하는 데이터 스트림에 적응 가능하지만 노이즈에 민감할 수 있음 |
미니배치 학습 | 데이터를 작은 묶음(미니배치)으로 나누어 학습 | 계산 효율성과 업데이트 안정성 사이의 균형을 제공, 가장 널리 사용됨 |
훈련 과정은 사전에 정의된 에포크 수에 도달하거나, 검증 데이터셋에서의 성능이 더 이상 향상되지 않을 때(조기 종료) 등 특정 조건이 충족되면 중단된다. 과도한 훈련은 과적합을 일으켜 훈련 데이터에는 완벽히 맞지만 새로운 데이터에는 제대로 일반화하지 못하는 모델을 만들 수 있다. 이를 방지하기 위해 정규화 기법이나 드롭아웃 등의 방법이 훈련 과정에 적용되기도 한다.
4.3. 평가 및 검증
4.3. 평가 및 검증
모델의 성능을 정량적으로 측정하기 위해 여러 평가 지표가 사용된다. 분류 문제에서는 정확도, 정밀도, 재현율, F1 점수 등이 일반적이다. 회귀 문제에서는 평균 제곱 오차나 평균 절대 오차와 같은 지표가 오차의 크기를 측정한다. 목적에 따라 적절한 지표를 선택하는 것이 중요하다[2].
모델이 훈련 데이터에만 과도하게 적응하는 과적합을 방지하고 일반화 성능을 확인하기 위해 검증 과정이 필수적이다. 가장 널리 쓰이는 방법은 데이터를 훈련 세트, 검증 세트, 테스트 세트로 나누는 홀드아웃 검증이다. 데이터가 충분하지 않을 때는 k-폴드 교차 검증을 적용한다. 이 방법은 데이터를 k개의 부분 집합으로 나누고, 그중 하나를 검증 세트로, 나머지를 훈련 세트로 사용하는 과정을 k번 반복하여 성능을 평균낸다.
검증 방법 | 설명 | 주요 용도 |
|---|---|---|
홀드아웃 검증 | 데이터를 고정된 비율(예: 70:15:15)로 분할 | 데이터가 풍부할 때, 최종 평가 |
k-폴드 교차 검증 | 데이터를 k개 폴드로 나누고 순차적으로 검증 | 데이터가 제한적일 때, 안정된 성능 추정 |
리브-원-아웃 검증 | k-폴드의 극단적 형태로, 하나의 샘플만을 검증 세트로 사용 | 매우 작은 데이터셋 |
최종적으로 테스트 세트는 모델 개발 과정에서 한 번도 사용되지 않은 데이터로, 모델의 실전 성능을 평가하는 데 활용된다. 검증 세트를 통해 하이퍼파라미터 튜닝을 수행한 후, 최종 선택된 모델의 성능을 테스트 세트에서 보고한다. 이 과정을 통해 모델이 새로운, 보지 못한 데이터에 대해 얼마나 잘 작동할지 예측할 수 있다.
5. 응용 분야
5. 응용 분야
머신러닝은 다양한 산업과 학문 분야에서 폭넓게 응용된다. 그 핵심은 데이터에서 패턴을 학습하여 예측, 분류, 군집화 또는 의사결정을 자동화하는 데 있다. 주요 응용 분야는 컴퓨터 비전, 자연어 처리, 추천 시스템 등으로 구분할 수 있으며, 각 분야는 고유한 과제와 기술적 접근법을 가진다.
컴퓨터 비전 분야에서는 이미지 분류, 객체 감지, 이미지 분할 등의 작업이 수행된다. 합성곱 신경망은 이 분야의 발전을 주도한 핵심 알고리즘이다. 자연어 처리 분야에서는 기계 번역, 감정 분석, 챗봇 개발 등 인간의 언어를 이해하고 생성하는 작업이 이루어진다. 순환 신경망과 트랜스포머 아키텍처가 이 분야의 기반을 이룬다.
추천 시스템은 사용자의 과거 행동 데이터를 분석하여 상품, 콘텐츠, 정보를 개인화하여 제안한다. 주요 접근법으로는 협업 필터링과 콘텐츠 기반 필터링이 있다. 이 외에도 사기 탐지, 예측 유지보수, 주식 시장 분석, 의료 진단 보조 등 무수히 많은 분야에서 머신러닝이 활용되고 있다.
응용 분야 | 주요 작업 예시 | 대표적 알고리즘/기술 |
|---|---|---|
이미지 분류, 얼굴 인식 | ||
기계 번역, 텍스트 생성 | ||
개인화 상품 추천 | 협업 필터링, 행렬 분해 | |
음성 인식 | 음성-텍스트 변환 | |
로보틱스 | 경로 계획, 조작 제어 |
5.1. 컴퓨터 비전
5.1. 컴퓨터 비전
컴퓨터 비전은 인공지능과 머신러닝을 활용하여 디지털 이미지나 동영상에서 정보를 자동으로 추출하고 이해하는 기술 분야이다. 이 분야의 핵심 목표는 인간의 시각 시스템이 수행하는 작업을 컴퓨터가 모방하도록 하는 것이다. 이를 위해 컨볼루션 신경망과 같은 딥러닝 아키텍처가 핵심적으로 활용된다.
주요 응용 분야는 다음과 같다.
응용 분야 | 주요 내용 |
|---|---|
이미지 내에서 특정 객체의 위치를 찾아내고 분류한다. | |
이미지의 각 픽셀을 의미 있는 범주로 분류하여 객체의 정확한 경계를 식별한다. | |
사람의 얼굴을 감지하고 개인을 식별하거나 분석한다. | |
인쇄되거나 손으로 쓴 텍스트를 기계가 읽을 수 있는 형태로 변환한다. |
이 기술들은 자율 주행 자동차, 의료 영상 분석, 산업 품질 검사, 증강 현실 등 다양한 산업에 폭넓게 적용된다. 예를 들어, 자율 주행에서는 실시간으로 보행자, 차량, 도로 표지판을 인식하고, 의료 분야에서는 엑스레이나 MRI 영상에서 종양이나 이상 징후를 탐지하는 데 사용된다. 컴퓨터 비전 시스템의 성능은 대량의 레이블된 데이터와 강력한 GPU 연산 능력에 크게 의존한다.
5.2. 자연어 처리
5.2. 자연어 처리
자연어 처리는 인간의 언어를 컴퓨터가 이해하고, 처리하고, 생성할 수 있도록 하는 인공지능 및 머신러닝의 핵심 분야이다. 이 기술은 컴퓨터가 텍스트나 음성 형태의 자연어 데이터를 분석하여 의미를 추출하거나 새로운 언어 데이터를 만들어내는 것을 목표로 한다. 초기에는 규칙 기반 시스템이 주를 이루었으나, 딥러닝과 대규모 언어 모델의 발전으로 그 성능과 적용 범위가 비약적으로 확대되었다.
주요 하위 과제로는 텍스트 분류, 감정 분석, 기계 번역, 질의응답 시스템, 개체명 인식, 문서 요약 등이 있다. 예를 들어, 기계 번역은 신경망 기반 번역 모델을 통해 한 언어의 문장을 다른 언어로 자동 변환하며, 감정 분석은 리뷰나 소셜 미디어 텍스트에서 긍정, 부정, 중립적인 감정을 판별한다. 이러한 작업들은 주로 순환 신경망, 장단기 메모리, 어텐션 메커니즘, 그리고 트랜스포머 아키텍처를 기반으로 한 모델들로 해결된다.
최근에는 GPT나 BERT와 같은 대규모 사전 훈련 언어 모델이 자연어 처리의 표준 접근법이 되었다. 이 모델들은 방대한 텍스트 코퍼스에서 언어의 일반적인 표현을 학습한 후, 특정 과제에 맞춰 미세 조정되는 방식으로 작동한다. 그 결과, 이전에는 불가능했던 수준의 문맥 이해와 유창한 텍스트 생성이 가능해졌다.
주요 하위 과제 | 설명 | 예시 응용 |
|---|---|---|
한 언어에서 다른 언어로 텍스트를 자동 변환 | ||
텍스트에 표현된 감정이나 의견을 분류 | 제품 리뷰 분석, 소셜 미디어 모니터링 | |
자연어 질문에 대한 답변을 제공 | ||
긴 문서의 핵심 내용을 간략하게 생성 | 뉴스 기사 요약, 리포트 자동 생성 |
자연어 처리 기술은 검색 엔진, 가상 비서, 챗봇, 콘텐츠 필터링, 접근성 도구 등 다양한 응용 프로그램의 기반을 이루며, 우리의 디지털 상호작용 방식을 근본적으로 변화시키고 있다.
5.3. 추천 시스템
5.3. 추천 시스템
추천 시스템은 사용자의 과거 행동, 선호도, 맥락 정보를 분석하여 개인화된 항목이나 콘텐츠를 제안하는 인공지능 기술이다. 주로 전자상거래, 스트리밍 서비스, 소셜 미디어 플랫폼에서 사용자를 위한 맞춤형 경험을 제공하고, 정보 과부하 문제를 해결하는 데 활용된다. 시스템의 핵심 목표는 사용자가 관심을 가질 만한, 발견하지 못했을 항목을 정확하게 예측하여 사용자 참여도와 만족도를 높이는 것이다.
주요 접근 방식은 크게 협업 필터링, 콘텐츠 기반 필터링, 하이브리드 방식으로 나뉜다. 협업 필터링은 "비슷한 취향을 가진 사용자들이 좋아한 항목을 추천한다"는 가정에 기반하며, 사용자-항목 간 상호작용 행렬(예: 평점, 구매 이력)을 분석한다. 콘텐츠 기반 필터링은 항목의 속성(메타데이터)과 사용자가 과거에 선호한 항목의 속성을 비교하여 유사한 항목을 추천한다. 하이브리드 방식은 이 두 가지 이상의 방법을 결합하여 각 방식의 단점(예: 협업 필터링의 콜드 스타트 문제, 콘텐츠 기반의 한계된 다양성)을 보완한다.
최근에는 딥러닝을 활용한 추천 시스템이 발전하고 있다. 신경망은 사용자와 항목의 복잡한 비선형 관계를 모델링하고, 텍스트, 이미지, 시퀀스 데이터 같은 다양한 형태의 부가 정보를 통합하는 데 효과적이다. 예를 들어, 사용자의 시청 시퀀스를 순환 신경망(RNN)으로 분석하거나, 사용자와 항목의 잠재적 특징을 잠재 요인 모델로 학습하는 방식이 널리 연구되고 적용된다.
접근 방식 | 주요 원리 | 장점 | 단점 |
|---|---|---|---|
협업 필터링 | 비슷한 사용자들의 선호도 패턴 활용 | 도메인 지식 불필요, 예상치 못한 항목 발견 가능 | 새로운 사용자/항목에 대한 콜드 스타트 문제, 데이터 희소성 문제 |
콘텐츠 기반 필터링 | 항목의 속성과 사용자 프로필 매칭 | 새로운 항목 추천 가능, 사용자 독립적 | 속성 추출에 의존, 지나치게 특정화될 수 있음 |
하이브리드 | 여러 방법론 결합 | 단일 방법의 한계 극복, 정확도 향상 | 시스템 설계가 복잡함 |
이러한 시스템은 사용자 경험을 크게 향상시키지만, 사용자 데이터 수집과 프라이버시, 추천 결과의 편향과 필터 버블[3] 형성, 추천 로직의 설명 가능성 부족 등의 윤리적, 기술적 과제도 안고 있다.
6. 도구와 프레임워크
6. 도구와 프레임워크
머신러닝 모델을 개발하고 배포하기 위해서는 다양한 소프트웨어 도구와 프레임워크가 사용된다. 이러한 도구들은 복잡한 수학적 연산을 추상화하고, 효율적인 실험과 배포를 가능하게 하여 연구와 실무의 생산성을 크게 높인다. 주요 프레임워크는 대체로 파이썬 프로그래밍 언어를 기반으로 구축되어 있으며, 각각의 설계 철학과 장단점을 가지고 있다.
가장 널리 사용되는 프레임워크 중 하나는 구글이 주도하여 개발한 TensorFlow이다. 이는 생산 환경 배포에 강점을 보이는 포괄적인 머신러닝 플랫폼으로, 정적 계산 그래프를 기반으로 한 초기 설계에서 점차 유연성을 높여왔다. TensorFlow는 Keras라는 고수준 API를 공식적으로 통합하여 모델 구축을 단순화했으며, TensorFlow Lite와 TensorFlow.js를 통해 모바일 및 웹 환경에서의 실행도 지원한다.
PyTorch는 페이스북(현 메타)의 AI 연구팀이 주도하는 오픈소스 프레임워크로, 연구 및 실험 단계에서 특히 선호된다. 동적 계산 그래프를 사용하여 코드 작성과 디버깅이 직관적이며, 파이썬의 프로그래밍 스타일과 잘 통합된다. 이러한 유연성 덕분에 학계와 신기술 프로토타이핑에서 빠르게 채택되었으며, 이후 생산성을 위한 고수준 도구인 PyTorch Lightning과 같은 생태계도 발전했다.
한편, scikit-learn은 전통적인 머신러닝 알고리즘을 구현하고 사용하기 위한 가장 대표적인 파이썬 라이브러리이다. 신경망 기반의 딥러닝보다는 선형 회귀, 의사결정 나무, 서포트 벡터 머신 등의 알고리즘과 데이터 전처리, 모델 선택, 평가 도구를 제공하는 데 중점을 둔다. 일관된 API 설계로 사용이 쉽고, 문서화가 잘 되어 있어 교육과 실무의 기본 도구로 널리 활용된다.
프레임워크/도구 | 주요 특징 | 주요 사용 영역 |
|---|---|---|
생산 배포 강점, 정적/동적 그래프 지원, 광범위한 도구 생태계 | ||
직관적인 동적 계산 그래프, 파이썬 친화적, 연구 친화적 | 학술 연구, 실험적 모델 개발, 자연어 처리 | |
전통적 머신러닝 알고리즘 집합, 일관된 API, 사용 용이 | 데이터 분석, 예측 모델링, 교육, 경량 응용 프로그램 |
6.1. TensorFlow
6.1. TensorFlow
TensorFlow는 구글이 개발하고 오픈 소스로 공개한 머신러닝 및 인공지능 라이브러리이다. 2015년 처음 공개된 이후, 연구와 상용 제품 개발 모두에서 가장 널리 사용되는 딥러닝 프레임워크 중 하나가 되었다. 그 이름은 텐서라는 다차원 배열 데이터가 계산 그래프를 따라 흐르는 방식에서 유래했다.
이 프레임워크의 핵심은 계산을 연산 그래프로 정의하고 실행하는 구조에 있다. 사용자는 파이썬 같은 고수준 언어로 모델을 정의하면, TensorFlow가 이를 내부적으로 최적화된 그래프로 변환하여 CPU, GPU, TPU[4] 등 다양한 하드웨어에서 효율적으로 실행한다. 이러한 설계는 대규모 분산 훈련과 프로덕션 환경 배포에 특히 강점을 보인다.
주요 구성 요소와 특징은 다음과 같다.
구성 요소 | 설명 |
|---|---|
Keras | TensorFlow에 통합된 고수준 API로, 모델 구축을 간소화한다. |
Eager Execution | 그래프를 미리 정의하지 않고 연산을 즉시 실행하는 명령형 프로그래밍 모드이다. |
TensorFlow Serving | 훈련된 모델을 프로덕션 환경에 배포하고 서빙하기 위한 시스템이다. |
TensorFlow Lite | 모바일 및 임베디드 장치용 경량화 버전이다. |
TensorFlow.js | 브라우저와 Node.js 환경에서 머신러닝 모델을 실행할 수 있게 하는 자바스크립트 라이브러리이다. |
초기에는 정적 계산 그래프 방식이 복잡하다는 지적을 받았으나, 이후 Eager Execution의 기본 활성화와 Keras API의 완전한 통합으로 사용 편의성이 크게 향상되었다. 현재는 컴퓨터 비전, 자연어 처리, 생성형 AI 모델 개발 등 광범위한 분야에서 표준 도구로 자리 잡았다.
6.2. PyTorch
6.2. PyTorch
PyTorch는 파이썬 기반의 오픈 소스 머신러닝 라이브러리이다. 페이스북의 AI 연구팀(FAIR)이 주도하여 개발하였으며, 2016년에 처음 공개되었다. 딥러닝 연구와 프로토타이핑에 널리 사용되며, 특히 동적 계산 그래프를 사용하는 define-by-run 방식으로 유명하다. 이 방식은 코드 실행 중에 그래프가 구축되므로 유연성이 높고 디버깅이 용이하다는 장점을 가진다.
주요 구성 요소로는 다차원 배열 연산을 위한 핵심 모듈인 텐서(Tensor)와, 자동 미분 기능을 제공하여 경사 하강법을 쉽게 구현할 수 있게 해주는 autograd 모듈이 있다. 또한 합성곱 신경망, 순환 신경망, 변환기(트랜스포머) 등 복잡한 신경망 구조를 쉽게 구축할 수 있도록 설계된 torch.nn 모듈을 제공한다.
특징 | 설명 |
|---|---|
동적 계산 그래프 | 연산이 실행될 때마다 그래프가 즉시 생성되고 변경될 수 있음 |
파이썬 친화적 | 파이썬의 제어 흐름과 데이터 구조를 자연스럽게 활용 가능 |
GPU 가속 | CUDA를 통한 GPU 지원으로 대규모 연산 성능 향상 |
풍부한 생태계 | TorchVision, TorchText, TorchAudio 등 도메인 특화 라이브러리 제공 |
TensorFlow, Keras와 함께 가장 인기 있는 딥러닝 프레임워크 중 하나이다. 학계의 연구 개발에서부터 산업 현장의 프로덕션 시스템 배포까지 광범위하게 활용된다. 최근에는 모바일 및 임베디드 장치 배포를 위한 PyTorch Mobile과, C++ 프론트엔드를 통한 고성능 배포를 지원하는 LibTorch 같은 도구도 발전시켜 왔다.
6.3. scikit-learn
6.3. scikit-learn
scikit-learn은 파이썬 프로그래밍 언어를 위한 대표적인 머신러닝 라이브러리이다. 과학 계산용 라이브러리인 NumPy와 SciPy를 기반으로 구축되어, 전통적인 지도 학습과 비지도 학습 알고리즘을 효율적이고 접근성 높게 구현하는 데 중점을 둔다. 데이터 마이닝과 데이터 분석을 위한 간단하고 효율적인 도구를 제공하는 것이 주요 목표로, 학술 연구와 상업적 응용 분야 모두에서 널리 사용된다.
이 라이브러리는 일관된 API 설계로 유명하다. 대부분의 알고리즘은 fit, predict, transform과 같은 유사한 메서드 인터페이스를 공유하여, 사용자가 서로 다른 모델을 쉽게 학습하고 적용하며 비교할 수 있게 한다. 주요 기능은 다음과 같이 분류할 수 있다.
기능 범주 | 주요 포함 알고리즘/도구 예시 |
|---|---|
분류(Classification) | |
회귀(Regression) | |
군집화(Clustering) | |
차원 축소(Dimensionality Reduction) | |
모델 선택 및 평가 | 교차 검증, 그리드 탐색, 다양한 평가 지표(정확도, F1 점수 등) |
데이터 전처리 | 특성 스케일링, 인코딩, 결측값 대체, 특성 추출 |
scikit-learn은 복잡한 신경망이나 딥러닝 모델 구현보다는 선형 회귀, 의사결정 나무, 서포트 벡터 머신 같은 고전적이면서도 강력한 알고리즘에 특화되어 있다. 이로 인해 상대적으로 적은 데이터 양으로도 빠른 프로토타이핑과 모델 구축이 가능하며, 머신러닝 입문자에게 이상적인 학습 도구 역할을 한다. 또한, 데이터 분할, 특성 공학, 모델 평가를 위한 포괄적인 유틸리티를 제공하여 머신러닝 워크플로우의 전 과정을 지원한다.
7. 윤리적 고려사항
7. 윤리적 고려사항
머신러닝 시스템의 개발과 배포 과정에서는 알고리즘 편향과 설명 가능한 인공지능과 같은 윤리적 문제가 중요한 고려사항으로 대두된다. 이러한 문제는 모델의 공정성, 책임성, 사회적 영향을 직접적으로 좌우한다.
편향 문제는 학습 데이터나 알고리즘 설계에서 비롯된 체계적인 불공정을 의미한다. 예를 들어, 특정 인종이나 성별에 대한 데이터가 부족하거나 역사적 편견이 반영된 데이터로 훈련된 모델은 채용, 대출 심사, 범죄 예측 등의 분야에서 차별적 결과를 낳을 수 있다[5]. 편향을 완화하기 위해서는 데이터 수집 단계부터 다양성을 고려하고, 모델의 출력을 지속적으로 공정성 지표로 평가하는 감사 프로세스가 필요하다.
투명성과 설명 가능성은 블랙박스 모델이 내린 결정의 근거를 이해하고 설명할 수 있는 능력을 말한다. 복잡한 심층 신경망 같은 모델은 높은 성능을 보이지만, 그 결정 과정이 불투명하여 잘못된 판단의 원인을 파악하거나 사용자의 신뢰를 얻기 어렵다. 이에 따라, 모델의 특정 예측에 기여한 요인을 시각화하거나 설명하는 LIME이나 SHAP 같은 설명 가능 AI 기법의 중요성이 증가하고 있다. 특히 의료 진단이나 사법 지원 등 고위험 분야에서는 설명 가능성이 법적, 윤리적 필수 요건이 되고 있다.
7.1. 편향 문제
7.1. 편향 문제
머신러닝 모델의 편향 문제는 학습 데이터나 알고리즘 설계 과정에서 발생하는 체계적 오류를 의미한다. 이는 모델이 특정 그룹을 부당하게 불리하게 대하거나, 현실 세계의 다양성을 제대로 반영하지 못하게 만든다. 편향은 크게 데이터 편향과 알고리즘 편향으로 구분된다. 데이터 편향은 훈련 데이터가 모집단을 대표하지 못하거나 역사적 불평등을 내포할 때 발생한다[6]. 알고리즘 편향은 목적 함수 설계, 특징 선택, 평가 지표 설정 과정에서 의도치 않게 특정 결과를 선호하도록 설계될 때 나타난다.
편향 문제의 주요 원인과 사례는 다음과 같다.
편향 유형 | 설명 | 대표적 사례 |
|---|---|---|
표본 편향 | 수집된 데이터가 전체를 대표하지 못함 | 주로 특정 지역 사용자 데이터로 훈련된 글로벌 서비스 |
측정 편향 | 데이터 수집 방법이나 도구의 한계로 인한 왜곡 | 얼굴 인식 시스템에서 특정 피부톤에 대한 인식률 저하 |
선택 편향 | 과거 의사결정 결과가 현재 데이터에 영향을 줌 | 채용 시스템이 과거 편향된 채용 기록을 학습 |
확증 편향 | 알고리즘이 기존 가정이나 편견을 강화함 | 검색 엔진이 사용자의 기존 관심사만 강화하는 결과 제공 |
이러한 편향은 공정성을 훼손하고 사회적 차별을 재생산할 위험이 있다. 예를 들어, 대출 승인 모델이 특정 인종이나 성별에 불리한 조건을 적용하거나, 자연어 처리 모델이 성별 고정관념을 학습하여 편향된 언어를 생성할 수 있다. 편향 문제를 완화하기 위해서는 데이터 수집 단계부터 다양성을 고려하고, 공정성 지표를 명시적으로 모델 평가에 포함시키며, 대조 학습이나 편향 완화 알고리즘과 같은 기술적 접근법을 적용하는 것이 중요하다. 궁극적으로는 기술 개발자, 윤리학자, 사회학자 등 다양한 분야의 전문가가 협력하여 문제를 해결해야 한다.
7.2. 투명성과 설명 가능성
7.2. 투명성과 설명 가능성
머신러닝 모델, 특히 복잡한 딥러닝 모델은 종종 "블랙박스"로 불린다. 이는 모델이 특정 입력에 대해 어떤 출력을 내놓는지 그 내부 의사결정 과정을 인간이 이해하기 어렵기 때문이다. 이러한 불투명성은 의료 진단이나 신용 평가, 자율 주행과 같이 결과에 대한 책임과 신뢰가 중요한 분야에서 큰 문제가 된다.
설명 가능한 인공지능은 모델의 예측이나 결정에 대한 근거를 제공하는 것을 목표로 한다. 주요 접근법으로는 모델 자체를 해석 가능하도록 설계하는 방법(예: 선형 회귀, 의사결정 나무)과, 복잡한 모델의 특정 예측에 대해 사후적으로 설명을 생성하는 방법(예: LIME, SHAP)이 있다. 예를 들어, 이미지 분류 모델이 특정 동물을 판별했을 때, 어떤 픽셀이 결정에 가장 큰 영향을 미쳤는지를 시각적으로 보여주는 기법이 활용된다.
설명 기법 유형 | 설명 | 대표 예시 |
|---|---|---|
본질적 해석 가능 모델 | 모델 구조 자체가 단순하고 해석이 쉬운 모델 | |
사후 해석 기법 | 학습된 복잡한 모델에 대해 예측 결과를 사후 분석 | LIME(Local Interpretable Model-agnostic Explanations), SHAP(SHapley Additive exPlanations), 특성 중요도(Feature Importance) |
투명성과 설명 가능성을 높이는 것은 단순한 기술적 문제를 넘어 사회적 요구사항이 되고 있다. 유럽연합의 GDPR(일반 데이터 보호 규칙)은 자동화된 결정에 대한 설명을 요구할 수 있는 '설명 권리'를 포함하고 있다. 또한, 모델의 편향을 발견하고 완화하며, 사용자와 시스템 간의 신뢰를 구축하고, 안전하고 책임 있는 인공지능 시스템을 배포하기 위한 필수 조건으로 인식된다.
