카테고리 없음

[인공지능] 기말 정리

smile blog 2023. 12. 11. 17:58

Q1. 베이지안 분류기

클래스 1과 클래스 2에 대한 평균과 공분산 행렬을 정리하겠습니다.

**클래스 1:**
- 평균 \(\mu_1 = \begin{bmatrix} 3 \\ 2 \end{bmatrix}\)
- 공분산 행렬 \(\Sigma_1 = \begin{bmatrix} \frac{8}{3} & 0 \\ 0 & \frac{3}{2} \end{bmatrix}\)

**클래스 2:**
- 평균 \(\mu_2 = \begin{bmatrix} 8 \\ 6 \end{bmatrix}\)
- 공분산 행렬 \(\Sigma_2 = \begin{bmatrix} \frac{8}{3} & 0 \\ 0 & \frac{2}{3} \end{bmatrix}\)

이제 이 정보를 사용하여 베이지안 분류기를 만들 수 있습니다. 사전 확률을 알면 완전한 분류기를 만들 수 있습니다. 이러한 확률은 주어진 데이터에서 각 클래스의 비율을 나타냅니다. 이 정보를 제공해주시면 베이지안 분류기를 완성할 수 있을 것입니다.

문제 1.

 

문제 2.


Q2. 퍼지 집합

에서 (2, 0.5)는 두 부분으로 이루어져 있습니다.

1. **\(2\):** 이 부분은 집합의 원소입니다. 여기서는 \(2\)가 그 원소를 나타냅니다. 즉, \(2\)라는 값이 해당 퍼지 집합의 일부라는 것을 나타냅니다.

2. **\(0.5\):** 이 부분은 소속도(멤버십, membership degree)입니다. 이 값은 퍼지 집합에 속할 확률을 나타냅니다. \(0.5\)는 이 \(2\)라는 값이 해당 퍼지 집합에 속할 확률이 \(50\%\)라는 것을 의미합니다.

따라서, (2, 0.5)라는 원소는 "값이 2일 때, 이 값이 해당 퍼지 집합에 속할 확률은 50%이다"라는 의미를 가지고 있습니다. 이것이 퍼지 집합의 한 원소를 나타내는 방식입니다.

 

 

문제 2. 

(5, 0.9)가 아니라 (5, 1.2)가 되어야 합니다. 그리고 (6, 0.3)은 (6, 0.2)와 (6, 0.1)을 합산한 결과입니다.

따라서, 정확한 퍼지 집합 A와 B의 덧셈 결과는 다음과 같습니다:


A + B = {(2, 0.5), (3, 0.4), (5, 1.2), (6, 0.3), (8, 0.4)}

 

 

문제 3.

i와 j는 각각 행렬의 행과 열을 나타냅니다. 행렬은 행과 열로 이루어져 있으며, 각 원소는 (i, j)의 위치에 있습니다. 여기서 i는 행의 인덱스, j는 열의 인덱스입니다.

예를 들어, 행렬 P의 경우:
```
| 0.1   1 |
| 0.5   0.3 |
```
여기서 (1,1) 위치의 원소는 0.1이고, (2,1) 위치의 원소는 0.5입니다. i는 행을 나타내고, j는 열을 나타냅니다.

마찬가지로, 행렬 R의 경우:
```
| 0.2   0.3   1 |
| 0.3   0.5   0.8 |
```
여기서 (1,1) 위치의 원소는 0.2이고, (2,3) 위치의 원소는 0.8입니다.

i와 j는 일종의 좌표로 생각할 수 있으며, 각 좌표의 위치에 있는 값은 해당 위치의 원소의 크기를 나타냅니다.

 

 

3. 4

퍼지 관계 행렬 P와 R의 최대 최소 합성을 다시 계산하고 정리하면 다음과 같습니다:

주어진 P 행렬:
\[ P = \begin{bmatrix} 0.1 & 1 \\ 0.5 & 0.3 \end{bmatrix} \]

주어진 R 행렬:
\[ R = \begin{bmatrix} 0.2 & 0.3 & 1 \\ 0.3 & 0.5 & 0.8 \end{bmatrix} \]

최대 최소 합성 행렬 \( P \circ R \)의 각 원소는 다음과 같이 계산됩니다:

\[ (P \circ R)_{11} = \max(\min(0.1, 0.2), \min(1, 0.3), \min(0.1, 1)) = \max(0.1, 0.3, 0.1) = 0.3 \]

\[ (P \circ R)_{12} = \max(\min(0.1, 0.3), \min(1, 0.5), \min(0.1, 0.8)) = \max(0.1, 0.5, 0.1) = 0.5 \]

\[ (P \circ R)_{13} = \max(\min(0.1, 1), \min(1, 0.8), \min(0.1, 1)) = \max(0.1, 0.8, 0.1) = 0.8 \]

\[ (P \circ R)_{21} = \max(\min(0.5, 0.2), \min(0.3, 0.3), \min(0.5, 1)) = \max(0.5, 0.3, 0.5) = 0.5 \]

\[ (P \circ R)_{22} = \max(\min(0.5, 0.3), \min(0.3, 0.5), \min(0.5, 0.8)) = \max(0.5, 0.3, 0.5) = 0.5 \]

\[ (P \circ R)_{23} = \max(\min(0.5, 1), \min(0.3, 0.8), \min(0.5, 1)) = \max(0.5, 0.8, 0.5) = 0.8 \]

따라서 최대 최소 합성 행렬 \( P \circ R \)은 다음과 같습니다:

\[ P \circ R = \begin{bmatrix} 0.3 & 0.5 & 0.8 \\ 0.5 & 0.5 & 0.8 \end{bmatrix} \]

이렇게 최대 최소 합성 행렬이 계산됩니다.

 

일반적으로 i행 j열의 원소는 \( (i, j) \)로 표기됩니다.

다시 설명드리면, \( (P \circ R)_{ij} \)는 \( P \) 행렬의 i행과 \( R \) 행렬의 j열을 고려하여 계산된 최대 최소 합성 행렬의 원소를 의미합니다. 

따라서, 앞서 계산한 값들을 \( (P \circ R)_{ij} \)로 나타내면 다음과 같습니다:

\[ (P \circ R)_{11} = 0.3, \quad (P \circ R)_{12} = 0.5, \quad (P \circ R)_{13} = 0.8 \]
\[ (P \circ R)_{21} = 0.5, \quad (P \circ R)_{22} = 0.5, \quad (P \circ R)_{23} = 0.8 \]

이제 이렇게 표기한 값들은 \( P \circ R \) 행렬의 각 원소를 나타냅니다.


Q7. 베이지안 분류기


Q8. 블록세계와 의미망

http://contents2.kocw.or.kr/KOCW/document/2016/gachon/choyoungim/2.pdf

 


[개념 정리]

휴리스틱 알고리즘(Heuristic Algorithm):

최적화 문제를 해결하기 위해 사용되는 근사적이고 경험적인 방법을 가리킵니다. 이러한 알고리즘은 목적 함수 값을 최소화하거나 최대화하는데 사용되며, 정확한 해를 찾지 않고서도 실용적이고 효과적인 해를 찾을 수 있도록 설계되었습니다.

 

유전 알고리즘(Genetic Algorithm): 

진화 알고리즘 중 하나로, 자연의 진화 원리를 모방하여 최적화 문제를 해결하는데 사용됩니다.

이 알고리즘은 초기에 무작위로 생성된 해들을 집단으로 다루고, 이들을 서로 교배하고 돌연변이를 일으켜서 새로운 해를 찾아가는 방식으로 동작합니다.

 

퍼지 추론 (fuzzy inference) :

애매함을 처리하는 수리 이론

 

퍼지 집합 :

소속 여부가 확실하지 않은 경우이 집합

 

나이브 베이지안 분류기(Naive Bayesian Classifier) :

베이즈 이론을 기반으로 한 통계적 분류 기법 중 하나입니다. 

이는 특히 텍스트 분류 및 스팸 필터링과 같은 문제에 많이 사용됩니다.