다중선형대수
1. 개요
1. 개요
다중선형대수는 선형대수학의 한 분야로, 벡터 공간의 텐서 곱을 연구하는 학문이다. 주요 연구 대상은 텐서와 다중선형 사상이며, 추상대수학 및 미분기하학과 밀접하게 관련되어 있다.
이 분야의 핵심 개념은 텐서, 텐서 곱, 그리고 다중선형성이다. 텐서는 벡터와 코벡터를 일반화한 다차원 배열의 수학적 객체로, 물리학과 공학의 다양한 현상을 기술하는 데 필수적이다.
다중선형대수는 특히 물리학에서 광범위하게 응용된다. 상대성 이론의 시공간 곡률 기술이나 양자역학의 다입자 시스템 상태 표현에 텐서가 핵심적으로 사용된다. 또한 유체역학과 탄성학 같은 공학 분야에서도 중요한 도구이다.
최근에는 컴퓨터 과학 분야, 특히 머신러닝과 컴퓨터 그래픽스에서 그 중요성이 부각되고 있다. 딥러닝의 다차원 데이터 처리나 컴퓨터 비전 알고리즘 개발에 다중선형대수의 기법이 적극적으로 활용되고 있다.
2. 기본 개념
2. 기본 개념
2.1. 텐서의 정의
2.1. 텐서의 정의
다중선형대수에서 텐서는 다중선형 사상을 나타내는 기본적인 수학적 객체이다. 텐서는 벡터와 스칼라를 일반화한 개념으로, 여러 개의 벡터 공간을 입력받아 하나의 스칼라를 출력하는 다중선형 사상으로 정의될 수 있다. 이는 선형대수학에서 벡터를 선형 사상으로 이해하는 관점을 확장한 것이다.
보다 구체적으로, 주어진 벡터 공간 V와 그 쌍대 공간 V*에 대해, (p, q) 유형의 텐서는 p개의 V* 원소와 q개의 V 원소를 입력받아 스칼라를 출력하는 다중선형 사상이다. 여기서 p는 반변 지표의 개수, q는 공변 지표의 개수를 의미하며, 이 둘의 합을 텐서의 계수 또는 순위라고 부른다. 텐서는 물리학의 상대성 이론과 양자역학에서 공변량과 반변량을 기술하는 핵심 도구로 등장한다.
텐서는 텐서 곱 연산을 통해 구성된다. 예를 들어, 두 벡터 공간 V와 W의 텐서 곱 공간 V⊗W의 원소는 (1,1) 유형의 텐서로 볼 수 있다. 이러한 구성은 임의의 유형 (p, q)의 텐서 공간을 체계적으로 정의하는 데 사용된다. 텐서 곱은 추상대수학에서도 중요한 연산으로, 다중선형 구조를 연구하는 데 필수적이다.
텐서의 이러한 추상적 정의는 미분기하학에서 접공간 위의 텐서장을 정의하는 기초가 되며, 공학의 유체역학이나 컴퓨터 과학의 머신러닝에서 다차원 데이터를 표현하고 연산하는 모델의 근간이 된다.
2.2. 텐서의 차원과 순위
2.2. 텐서의 차원과 순위
텐서의 차원은 텐서를 구성하는 각 벡터 공간의 차원을 의미한다. 예를 들어, 두 개의 3차원 벡터 공간의 텐서 곱으로 생성된 텐서는 3x3의 성분을 가지며, 이때 각 차원의 크기는 3이다. 이는 텐서를 다차원 배열로 표현했을 때 배열의 각 축을 따라 있는 성분의 개수에 해당한다.
텐서의 순위는 텐서가 결합하고 있는 벡터 공간의 개수를 나타내는 척도이다. 스칼라는 순위 0, 벡터는 순위 1, 행렬은 순위 2의 텐서에 해당한다. 일반적으로, k개의 벡터 공간에 대해 정의된 다중선형 사상은 순위 k의 텐서로 표현된다. 따라서 순위는 텐서가 얼마나 많은 '인덱스' 또는 '모드'를 가지고 있는지를 나타낸다.
텐서의 차원과 순위는 서로 다른 개념이다. 순위는 텐서의 '계층' 수를, 차원은 각 계층의 '폭'을 설명한다. 예를 들어, 256x256 픽셀의 컬러 이미지는 높이, 너비, 색상 채널의 세 가지 모드를 가지므로 순위 3의 텐서이다. 이 텐서의 차원은 각 모드별로 256, 256, 3이 된다.
이러한 개념은 기계 학습의 다차원 데이터 처리, 물리학의 시공간과 장의 기술, 신호 처리의 다중 채널 데이터 분석 등 다양한 분야에서 텐서를 이해하고 연산하는 데 필수적이다.
2.3. 텐서 곱
2.3. 텐서 곱
텐서 곱은 두 개 이상의 벡터 공간을 결합하여 새로운, 더 큰 벡터 공간을 구성하는 연산이다. 이 새로운 공간의 원소가 바로 텐서이며, 텐서 곱 공간은 원래 벡터 공간들의 다중선형 사상을 모두 선형 사상으로 나타낼 수 있는 보편적 성질을 가진다. 즉, 텐서 곱은 다중선형성을 선형성의 문제로 환원시키는 핵심적인 도구 역할을 한다.
구체적으로, 두 벡터 공간 V와 W의 텐서 곱 공간 V ⊗ W는, V와 W의 원소들의 순서쌍 (v, w)에 대해 이중선형적인 성질을 만족하는 형식적인 기호 v ⊗ w들로 생성된다. 이때 ⊗ 연산은 이중선형성을 만족하며, 텐서 곱 공간의 임의의 원소는 이러한 기초 텐서들의 유한 선형 결합으로 표현된다. 이 개념은 임의의 유한 개 벡터 공간으로 자연스럽게 확장된다.
텐서 곱의 구체적인 계산은 각 벡터 공간의 기저를 통해 이루어진다. 만약 V의 기저가 {e_i}, W의 기저가 {f_j}라면, V ⊗ W의 기저는 {e_i ⊗ f_j}로 주어진다. 따라서 유한 차원 벡터 공간의 경우, 텐서 곱 공간의 차원은 원래 공간들의 차원의 곱과 같다. 이 기저 표현은 텐서를 다차원 배열(행렬의 일반화)로 보는 관점과 직접적으로 연결된다.
텐서 곱 연산은 선형대수학을 넘어 추상대수학, 호몰로지 대수, 특히 미분기하학에서 접공간과 여접공간을 결합하여 다양한 유형의 텐서장을 정의하는 데 필수적이다. 또한 양자역학에서는 복합 시스템의 상태 공간을 기술하기 위해 힐베르트 공간의 텐서 곱이 핵심적으로 사용된다.
3. 표기법
3. 표기법
3.1. 인덱스 표기법
3.1. 인덱스 표기법
인덱스 표기법은 텐서를 다루는 데 있어 가장 널리 사용되는 표기 체계이다. 이 표기법은 텐서의 각 성분을 하나 이상의 인덱스로 표시하여, 복잡한 텐서 연산을 간결하고 체계적으로 표현할 수 있게 해준다. 예를 들어, 2차 텐서(행렬)는 두 개의 인덱스 A_ij로, 3차 텐서는 세 개의 인덱스 T_ijk로 나타낼 수 있다. 이 표기법은 특히 물리학과 공학에서 텐서 계산을 수행할 때 필수적이다.
이 표기법의 핵심은 아인슈타인 표기법이다. 이는 합 기호를 생략하고, 같은 인덱스가 한 항에서 위와 아래에 한 번씩 등장하면 그 인덱스에 대해 합을 취하는 규칙을 의미한다. 예를 들어, 두 벡터의 내적은 v^i w_i로, 행렬과 벡터의 곱은 A^j_i v^i로 간단히 쓸 수 있다. 이 규칙은 방정식을 매우 간소화하며, 상대성 이론과 같은 고급 물리학 분야에서 광범위하게 활용된다.
인덱스의 위치(위 첨자와 아래 첨자)는 텐서의 변환 성질을 반영한다. 일반적으로 위 첨자는 반변 벡터 성분을, 아래 첨자는 공변 벡터 성분을 나타낸다. 이러한 구분은 미분기하학에서 곡면이나 다양체 상의 좌표계를 다룰 때 중요해진다. 인덱스 표기법을 통해 텐서의 축약, 텐서 곱, 텐서 전치 등의 다양한 연산을 명확하게 정의하고 수행할 수 있다.
컴퓨터 과학, 특히 기계 학습과 컴퓨터 그래픽스에서도 인덱스 표기법의 사고방식이 유용하게 적용된다. 다차원 배열 데이터를 처리할 때, 각 차원을 인덱스로 생각하고 연산을 효율적으로 구현하는 데 이 개념이 기반이 된다. 이는 선형대수학의 행렬 표기법을 고차원으로 자연스럽게 확장한 것으로, 다중선형대수의 이론과 실제 응용을 연결하는 강력한 도구이다.
3.2. 다이어그램 표기법
3.2. 다이어그램 표기법
다이어그램 표기법은 텐서와 텐서 연산을 시각적으로 표현하는 방법이다. 이 표기법은 특히 양자역학과 양자 정보 이론 분야에서 널리 사용되며, 복잡한 텐서 계산을 직관적인 그림으로 단순화하는 데 유용하다. 기본적으로 텐서는 상자나 원과 같은 도형으로 나타내고, 텐서의 각 자유 인덱스는 도형에서 뻗어나온 선으로 표현된다.
가장 대표적인 예로는 펜로즈 그래픽 표기법이 있다. 이 표기법에서는 텐서를 도형으로, 텐서 곱은 도형을 나란히 배치하는 것으로, 축약은 두 도형에서 뻗어나온 선을 연결하는 것으로 나타낸다. 예를 들어, 두 개의 벡터의 내적은 두 개의 선이 연결된 하나의 점으로 표현될 수 있다. 이러한 시각적 표현은 텐서 방정식의 대칭성이나 계산 과정을 이해하는 데 큰 도움을 준다.
다이어그램 표기법은 단순히 그림을 그리는 것을 넘어 수학적으로 엄밀한 기초를 가지고 있으며, 범주론의 개념과 밀접하게 연결되어 있다. 특히 양자 회로나 텐서 네트워크와 같은 복잡한 구조를 다룰 때, 기호만으로 된 표기법보다 훨씬 명확하고 간결한 표현이 가능하다. 이는 머신러닝에서의 텐서 분해나 양자 컴퓨팅 알고리즘 설계 등 다양한 현대 응용 분야에서 그 유용성을 입증하고 있다.
4. 텐서 연산
4. 텐서 연산
4.1. 축약
4.1. 축약
축약은 텐서 연산의 핵심 중 하나로, 두 개 이상의 인덱스를 합산하여 제거함으로써 텐서의 순위를 낮추는 연산이다. 선형대수학에서의 내적 연산을 고차원의 텐서로 일반화한 것으로 볼 수 있다. 가장 일반적인 형태는 두 개의 인덱스를 지정하여, 그 인덱스에 대해 대응하는 성분들을 모두 곱한 뒤 합산하는 것이다. 예를 들어, 3차 텐서와 2차 텐서(행렬)를 특정 인덱스에서 축약하면 새로운 텐서가 생성된다.
이 연산은 아인슈타인 표기법을 통해 간결하게 표현되는 경우가 많다. 이 표기법에서는 축약될 인덱스가 같은 기호로 표시되며, 그 인덱스에 대한 합이 암묵적으로 수행된다. 축약 연산은 기계 학습과 딥러닝에서 광범위하게 사용되며, 특히 신경망의 순전파와 역전파 과정에서 행렬 곱셈과 텐서 곱을 결합하는 핵심 메커니즘으로 작동한다.
물리학, 특히 상대성 이론과 양자장론에서도 축약은 필수적이다. 시공간 계량 텐서를 이용한 내적 계산이나, 다양한 물리 법칙을 텐서 방정식으로 표현할 때 지표의 축약이 빈번히 일어난다. 또한 텐서 분해 방법론이나 텐서 네트워크 이론에서도 복잡한 고차원 텐서를 효율적으로 표현하고 계산하기 위해 축약 연산이 기본 도구로 활용된다.
4.2. 텐서 분해
4.2. 텐서 분해
텐서 분해는 고차원 텐서를 여러 개의 저차원 텐서나 행렬의 곱으로 표현하는 방법이다. 이는 복잡한 텐서 데이터의 구조를 단순화하고, 잠재된 요인을 추출하며, 데이터 압축과 노이즈 제거에 활용된다. 선형대수학에서의 행렬 분해를 고차원으로 일반화한 개념으로 볼 수 있다.
주요 텐서 분해 방법으로는 CP 분해와 Tucker 분해가 있다. CP 분해는 텐서를 랭크-1 텐서들의 합으로 분해하는 방식이며, Tucker 분해는 텐서를 핵심 텐서와 각 모드별 요인 행렬의 곱으로 표현한다. 이러한 분해 기법은 기계 학습의 추천 시스템이나 컴퓨터 비전에서 다차원 데이터를 처리할 때, 그리고 신호 처리에서 다채널 신호 분석에 널리 적용된다.
텐서 분해는 데이터의 다중선형 구조를 보존하면서 차원을 효과적으로 축소할 수 있다는 장점이 있다. 이를 통해 대규모 텐서 데이터셋에서 계산 효율성을 높이고, 해석 가능한 패턴을 발견하는 데 기여한다. 분해 결과는 차원 축소나 특징 추출의 한 형태로 간주될 수 있다.
4.3. 텐서 전치
4.3. 텐서 전치
텐서 전치는 텐서의 차원 축을 재배열하는 연산이다. 이는 행렬의 전치 연산을 고차원 텐서로 일반화한 개념에 해당한다. 예를 들어, 3차원 텐서의 경우, (i, j, k) 성분이 (j, i, k) 또는 (k, j, i)와 같은 다른 순서의 인덱스 위치로 이동하게 된다. 이 연산은 텐서의 구조를 변경하지만, 텐서 자체가 포함하는 데이터의 본질적 정보는 보존한다.
텐서 전치는 인덱스 표기법을 사용하여 간결하게 표현할 수 있다. 텐서 T의 인덱스 순서를 변경하는 순열 연산으로 이해되며, 파이썬의 NumPy 라이브러리에서는 numpy.transpose 함수를 통해 구현된다. 이 연산은 텐서 연산에서 데이터의 방향이나 메모리 접근 패턴을 최적화하거나, 특정 알고리즘의 입력 요구사항을 맞추는 데 필수적이다.
기계 학습과 딥러닝에서는 텐서 전치가 널리 활용된다. 합성곱 신경망이나 순환 신경망과 같은 모델에서 미니배치 데이터의 형태를 조정하거나, 어텐션 메커니즘 계산 중 행렬 곱셈을 수행하기 전 차원을 맞추는 과정에서 자주 사용된다. 또한 신호 처리에서 다차원 데이터의 푸리에 변환을 적용할 때에도 관련 연산이 나타난다.
5. 응용 분야
5. 응용 분야
5.1. 기계 학습
5.1. 기계 학습
다중선형대수는 기계 학습 분야에서 핵심적인 수학적 도구로 활용된다. 특히 고차원 데이터를 효율적으로 표현하고 처리하기 위해 텐서 개념이 광범위하게 적용된다. 컴퓨터 비전에서는 이미지 데이터를 색채 채널, 높이, 너비를 가진 3차원 텐서로 모델링하며, 자연어 처리에서는 단어 임베딩 시퀀스를 다루기 위해 텐서를 사용한다. 신경망의 다층 구조에서 각 계층의 입력, 출력, 가중치 또한 텐서 형태로 표현되어 연산이 이루어진다.
기계 학습의 여러 하위 분야에서 텐서 연산은 필수적이다. 딥러닝 프레임워크들은 대규모 텐서 연산을 가속화하기 위해 GPU를 활용한다. 추천 시스템에서는 사용자, 아이템, 컨텍스트 정보를 결합한 고차원 텐서를 분해하여 잠재 요인을 추출하는 텐서 분해 기법이 사용된다. 또한 데이터 압축이나 노이즈 제거를 위해 텐서에 대한 저랭크 근사가 수행되기도 한다.
텐서를 활용한 고급 기계 학습 모델 연구도 활발하다. 텐서 네트워크는 양자 물리학에서 유래한 개념을 차용하여 복잡한 모델 파라미터를 효율적으로 표현하는 방법을 제공한다. 다중 작업 학습이나 관계형 학습과 같이 여러 데이터 소스나 관계를 동시에 고려해야 하는 문제에서 텐서는 데이터의 구조화된 상호작용을 모델링하는 자연스러운 수단이 된다. 이처럼 다중선형대수는 기계 학습이 다루는 데이터의 복잡성과 규모를 수학적으로 체계화하는 데 기여한다.
5.2. 물리학
5.2. 물리학
다중선형대수는 물리학의 여러 분야, 특히 상대성 이론과 양자역학에서 핵심적인 수학적 언어로 사용된다. 물리적 현상을 기술하는 많은 법칙과 방정식은 본질적으로 텐서를 다루는 다중선형 관계로 표현된다.
상대성 이론에서 시공간의 곡률은 리만 곡률 텐서로 기술되며, 아인슈타인 방정식은 에너지-운동량 텐서와 시공간의 기하학을 연결하는 텐서 방정식이다. 또한 전자기학의 맥스웰 방정식도 텐서 형태로 간결하게 재표현될 수 있다. 양자역학에서는 복합 시스템의 상태 공간이 개별 시스템 힐베르트 공간의 텐서 곱으로 구성된다. 예를 들어, 두 개의 입자로 이루어진 시스템의 상태는 각 입자의 상태 벡터의 텐서 곱으로 나타내며, 이는 얽힘 현상을 이해하는 데 필수적이다.
고체물리학과 유체역학에서도 텐서는 물질의 성질을 설명하는 데 널리 쓰인다. 탄성학에서 응력과 변형률은 2차 텐서로, 그 관계를 규정하는 탄성 계수는 4차 텐서로 표현된다. 유체의 점성 응력 역시 속도 구배 텐서와 관련된 2차 텐서로 나타난다. 이처럼 물리학의 법칙을 공간의 방향과 좌표계 선택에 무관한(coordinate-free) 방식으로 기술하고, 복잡한 물리량 간의 관계를 체계적으로 다루기 위해 다중선형대수의 개념과 표기법이 필수적으로 활용된다.
5.3. 신호 처리
5.3. 신호 처리
다중선형대수는 신호 처리 분야에서 다차원 데이터를 효율적으로 표현하고 분석하는 데 핵심적인 도구를 제공한다. 특히 영상 처리나 음성 처리와 같이 시간, 공간, 주파수 등 여러 차원을 동시에 고려해야 하는 데이터는 자연스럽게 텐서 구조를 가지게 되며, 다중선형대수의 기법을 적용하여 압축, 분해, 노이즈 제거 등의 작업을 수행할 수 있다.
신호 처리에서의 대표적인 응용은 텐서 분해이다. 고유값 분해나 특이값 분해가 행렬에 대한 저차원 근사를 제공하는 것처럼, 텐서 분해는 다차원 데이터의 핵심 패턴을 추출한다. 예를 들어, 컬러 영상은 높이, 너비, 색상 채널의 3차원 텐서로 볼 수 있으며, 이를 분해하여 데이터 압축이나 특징 추출에 활용한다. 다차원 신호를 다루는 센서 네트워크나 의료 영상 분석에서도 이러한 기법이 중요하게 사용된다.
분야 | 주요 응용 | 활용 기법 예시 |
|---|---|---|
영상/비디오 처리 | 데이터 압축, 객체 인식, 잡음 제거 | |
음성/오디오 처리 | 화자 분리, 음원 분리, 향상 | 다차원 스펙트로그램 텐서 분석 |
의료 영상 | 기능적 자기공명영상(fMRI) 데이터 분석, 병변 탐지 | 텐서 기반 주성분 분석(PCA) |
이처럼 다중선형대수는 신호 처리의 전통적인 선형 방법을 다차원으로 확장하는 강력한 프레임워크를 구성한다. 복잡한 구조를 가진 현대의 신호 데이터를 효과적으로 모델링하고 처리할 수 있게 함으로써, 인공지능 기반 신호 분석이나 빅데이터 처리 기술의 발전에 기여하고 있다.
6. 관련 수학 분야
6. 관련 수학 분야
6.1. 선형대수학
6.1. 선형대수학
선형대수학은 벡터 공간과 그 위의 선형 변환을 연구하는 수학의 한 분야이다. 스칼라와 벡터, 그리고 벡터를 다른 벡터로 변환하는 선형 사상을 다루며, 행렬과 행렬식, 고유값과 고유벡터 등이 핵심 개념이다. 이 학문은 수학의 기초를 이루는 동시에 물리학, 공학, 컴퓨터 과학 등 거의 모든 과학 기술 분야에 폭넓게 응용되는 필수적인 도구이다.
선형대수학의 기본적인 연구 대상은 유한 차원 벡터 공간과 그 사이의 선형 사상이며, 이는 행렬을 통해 구체적으로 표현된다. 가우스 소거법과 같은 연립 일차 방정식의 해법, 벡터 공간의 기저와 차원, 그리고 내적 공간과 직교성에 대한 이론이 발전해왔다. 이러한 이론들은 기하학적 직관과 대수적 계산을 연결하며, 복잡한 문제를 체계적으로 해결할 수 있는 틀을 제공한다.
다중선형대수학은 선형대수학의 자연스러운 확장으로, 두 개 이상의 벡터를 입력으로 받아 다중선형성을 만족하는 사상을 연구한다. 선형대수학이 주로 벡터와 행렬(2차원 배열)을 다룬다면, 다중선형대수학은 그보다 고차원적인 배열인 텐서를 핵심 대상으로 삼는다. 따라서 선형대수학은 다중선형대수학을 이해하기 위한 필수적인 기초 지식이 된다.
선형대수학의 방법론과 언어는 다중선형대수학의 핵심 연산인 텐서 곱을 정의하고 분석하는 데 직접적으로 활용된다. 또한, 미분기하학에서 접공간과 여접공간을 다루거나, 양자역학에서 복합 시스템의 상태를 기술할 때, 선형대수학의 개념들은 다중선형 구조를 설명하는 기본 프레임워크 역할을 한다.
6.2. 다중선형대수학
6.2. 다중선형대수학
다중선형대수학은 선형대수학의 한 분야로, 여러 개의 벡터 공간을 결합하여 더 높은 차원의 구조를 생성하는 텐서 곱을 핵심적으로 연구하는 학문이다. 주요 연구 대상은 텐서이며, 이는 벡터와 행렬을 일반화한 다차원 배열로 볼 수 있다. 이 분야는 여러 입력에 대해 각각 독립적으로 선형적인 성질을 가지는 다중선형 사상을 다루는 것을 근본으로 한다.
텐서는 물리학의 상대성 이론과 양자역학, 공학의 유체역학 및 탄성학, 그리고 컴퓨터 과학의 머신러닝과 컴퓨터 그래픽스 등 다양한 응용 분야에서 자연스럽게 등장하는 기본적인 수학적 객체이다. 다중선형대수학은 이러한 텐서들의 대수적 구조와 연산, 성질을 체계적으로 규명한다.
이 학문은 추상대수학과 깊은 연관을 가지며, 특히 미분기하학에서 접공간과 같은 기하학적 구조를 기술하는 데 필수적인 도구를 제공한다. 따라서 다중선형대수학은 순수 수학의 추상적인 이론과 응용 과학의 구체적인 문제를 연결하는 중요한 가교 역할을 한다.
6.3. 미분기하학
6.3. 미분기하학
다중선형대수는 미분기하학의 핵심적인 언어와 도구를 제공하는 수학적 기반이다. 미분기하학은 곡면과 다양체와 같은 공간의 기하학적 성질을 연구하는 분야로, 이 공간의 각 점에서 접하는 벡터 공간인 접공간을 다룬다. 이러한 접공간 위에서 정의되는 다양한 기하학적 객체, 예를 들어 곡률이나 계량 텐서는 본질적으로 텐서의 형태를 띠며, 이들의 연산과 변환은 다중선형대수의 체계 위에서 이루어진다.
특히, 리만 기하학에서 공간의 기본 구조를 정의하는 리만 계량은 각 점에서 정의된 2차 대칭 텐서이다. 또한 접속이나 곡률 텐서와 같은 개념들은 더 높은 텐서 차원을 가지며, 이들의 성질을 규명하기 위해서는 텐서 곱과 텐서 축약과 같은 다중선형대수의 연산이 필수적으로 사용된다. 따라서 미분기하학의 정교한 이론을 전개하고 물리학에 응용하기 위해서는 다중선형대수에 대한 깊은 이해가 선행되어야 한다.
7. 여담
7. 여담
다중선형대수는 선형대수학의 핵심 개념인 벡터 공간과 선형 변환을 다차원으로 확장한 학문이다. 이 분야는 여러 개의 벡터 공간을 결합하여 생성되는 텐서라는 수학적 객체와, 이를 다루는 다중선형 사상을 연구한다. 텐서는 스칼라, 벡터, 행렬을 일반화한 개념으로, 다중선형대수는 이러한 고차원 구조를 체계적으로 분석하는 틀을 제공한다.
이 분야는 추상대수학과 깊은 연관을 가지며, 특히 텐서 곱의 개념은 대수 구조를 이해하는 데 필수적이다. 또한, 미분기하학에서는 접공간과 여접공간에서 정의된 텐서장을 연구하는 기초가 되어, 곡률이나 계량 텐서 같은 기하학적 개념을 표현하는 언어로 사용된다.
다중선형대수의 응용 범위는 매우 넓다. 물리학에서는 상대성 이론의 시공간 기술이나 양자역학의 복합 시스템 상태 표현에 텐서가 핵심적으로 활용된다. 공학 분야, 특히 유체역학과 탄성학에서도 응력이나 변형률을 설명하는 데 필수적이다. 현대에는 컴퓨터 과학의 머신러닝에서 다차원 데이터를 처리하거나, 컴퓨터 그래픽스에서 조명 및 변환을 모델링하는 등 그 중요성이 더욱 커지고 있다.
