부트캠프TIL(29)
-
경기도미래기술학교 AI개발자 부트캠프 30일차 TIL- Decision Tree의 한계. ratio와 지니인덱스
https://tyami.github.io/machine%20learning/decision-tree-3-c4_5/ 의사결정 나무 (Decision Tree) C4.5 알고리즘 설명 의사결정 나무의 기본 알고리즘 중 하나인 C4.5 를 공부해봅시다 tyami.github.io https://tyami.github.io/machine%20learning/decision-tree-1-concept/ 의사결정 나무 (Decision Tree) 기본 설명 Machine learning 알고리즘 중 하나인 의사결정 나무를 공부해봅시다 tyami.github.io 여기서 순서대로 공부해보자. 확률은 probability. 지니 인덱스 : Gini Index = 1 - Σ (p_i)^2 p_i는 각 클래스 i에 대한..
2023.06.20 -
경기도미래기술학교 AI개발자 부트캠프 29일차 TIL- Decision tree란? 엔트로피란? 개념 알고 실습하기.
Decision tree를 배웠다. Decision Tree(의사결정 트리)는 데이터를 분류하거나 예측하기 위한 지도 학습 알고리즘이다. 이 알고리즘은 트리 구조를 사용하여 데이터를 분할하고 판단 규칙을 만들어 내는 방식이다. 이 트리는 데이터의 특성을 기반으로 하여 노드(node)라고 불리는 분기점들을 생성하고, 각 노드는 특정한 조건을 통해 데이터를 분할한다. 분할은 정보 이득(information gain), 지니 불순도(gini impurity), 분산 감소(variance reduction) 등의 지표를 사용하여 이루어진다. log 할 줄을 몰라서 좀 헤맸다. 밑이 있고 log를 어떻게 사용하는지 등을 몰랐다. 이제는 앎. import numpy as np # 로그를 계산할 값. x = 10..
2023.06.19 -
경기도미래기술학교 AI개발자 부트캠프 28일차 TIL-파이썬으로 하는 벡터공부 계속. Mean subtraction 하는 이유, 편차 만들기, 분산, 표준편차 등.
https://bskyvision.com/entry/MSCNmean-subtraction-and-contrast-normalization%EC%9D%98-%EC%9D%B4%ED%95%B4 MSCN(mean subtraction and contrast normalization)의 이해 mean subtraction and contrast normalization (MSCN)은 Difference of Gaussian (DoG), Laplacian of Gaussian (LoG), Gradient Magnitude (GM)와 같은 이미지 전처리 방식 중에 하나이다. 눈에 보이는 것과 우리 뇌에서 이미지를 처리 bskyvision.com Mean subtraction 하는 이유. Mean Subtraction..
2023.06.16 -
경기도미래기술학교 AI개발자 부트캠프 27일차 TIL- 벡터 공부
https://www.youtube.com/watch?v=g3n1VxiXgrE 속력 : 크기 이다. -> 스칼라. 속도 : 크기 + 방향이다. -> 벡터 화살표 하나가 있으면 벡터 표현이 가능하다. 화살표의 길이 : 크기 화살표의 방향 : 벡터의 방향. 시작점 A를 시점. 끝점 B를 종점. AB의 크기가 1이면 단위벡터(유닛벡터)다. 크기가 1로 고정되어 있는 것이 단위벡터다. 단위벡터는 방향을 나타내는데 집중을 한다. 시점과 종점이 같은 벡터는? 영벡터라고 한다. 영벡터는 방향을 고려하지 않는다. 벡터가 서로 같을 조건 : 크기와 방향이 동일하면 위치에 상관없이 같은 벡터이다. 정육각형의 예시. AO 벡터와 OD 벡터는 서로 같다. OA과 OD는 크기는 같지만 방향이 다르다. ##############..
2023.06.15 -
경기도미래기술학교 AI개발자 부트캠프 26일차 TIL- 파이썬으로 통계학 기초 배우기.
# x = int(input()) # y = int(input()) # # if(x>0 and y>0): # print(1) # elif(x0): # print(2) # elif(x
2023.06.14 -
경기도미래기술학교 AI개발자 부트캠프 23일차 TIL- 통계학 복습 계속.
? 분산과 표준편차는 왜 다를까. 분산은 평균으로부터 각 요소들이 얼마나 떨어져있는지 판단하는 것이다. 대신 각 요소를 제곱했기 떄문에 데이터의 원 스케일 값은 아니다. 표준편차는 각 데이터마다 평균적으로 얼마나 차이가 있는지 판단하는 것이다. 표준편차는 분산의 제곱근이다. 따라서 제곱한 분산의 값을 다시 원래대로 한 것이기 때문에 그 값으로 원래의 데이터 단위로 파악할 수 있다. t-test의 설명. 1. t-test에서 어떤 두 집단 사이의 평균 차이가 5kg 정도 난다고 치자. 2. 만약 이 5kg이 표준편차보다 작다면 5kg 차이에 큰 의미를 둘 수가 없다 라는 뜻이다. 따라서 이 차이가 우연히 발생했다 라는 결론이 생기는 것이다. 3. 하지만 5kg가 표준편차보다 크면 클 수록 큰. 그러면 이 ..
2023.06.11