에이블런부트캠프(30)
-
경기도미래기술학교 AI개발자 부트캠프 40일차 TIL- 베이즈 정리 계속.
https://www.youtube.com/watch?v=Y4ecU7NkiEI&t=275s 어제 만든 여아의 부모 추정(?)을 함수화 해서 코딩을 다시 만들었다. import pandas as pd def calculate_posterior(df): total_probability = (df['birth_princess_likelihood'] * df['birth_princess_ratio']).sum() print('total_probability:',total_probability) df['posterior_probability'] = df['birth_princess_likelihood'] * df['birth_princess_ratio'] / total_probability return df ta..
2023.07.04 -
경기도미래기술학교 AI개발자 부트캠프 39일차 TIL- 나이브 베이즈 알고리즘 배우는 주. 기초 통계
https://www.youtube.com/watch?v=me--WQKQQAo 나이브 베이즈 알고리즘은 넷플릭스에서도 사용하는 알고리즘으로 사용자의 추천 알고리즘이다. 빌게이츠도 이 알고리즘을 되게 강조했다고 한다. 인간처럼 사고하는 알고리즘이다. 꼭 알아야 하는 수학적 개념이 확률과 통계이다. https://www.youtube.com/watch?v=KueAHu7iFNE conditional probability(조건부 확률). https://doctorinformationgs.tistory.com/107 조건부 확률과 베이즈 정리 - 2주차 정리 이전 진도 2021.09.11 - [고등 수학/확률과 통계] - 확률의 정의 - 2주차 정리 확률의 정의 - 2주차 정리 참조 문헌 1. Probabilit..
2023.07.03 -
경기도미래기술학교 AI개발자 부트캠프 35일차 TIL- KNN 알고리즘 그려보기.
import numpy as np import matplotlib.pyplot as plt def euclidean_distance(x1, y1, x2, y2): result = (((y1-x1)**2) + ((y2-x2)**2)) ** 0.5 return result n_classes = 4 n_data = 100 X, y = [], [] for class_idx in range(n_classes): centroid = np.random.uniform(low=-10, high=10, size=(2,)) X_ = np.random.normal(loc=centroid, scale=2, size=(n_data, 2)) y_ = class_idx * np.ones(n_data,) X.append(X_) y.a..
2023.06.28 -
경기도미래기술학교 AI개발자 부트캠프 32일차 TIL- DecisionTreeClassifier
내가 분석할 데이터를 받았을 때는 제일 먼저 해야 하는 일이 이것이다. 데이터의 타입이 어떤지 쉐이프 얼마나 긴지, 오브젝트 정보는 어떤지 등을 확인해야 한다. from sklearn.datasets import load_iris import numpy as np iris = load_iris() print(type(iris), '\n') for attr in dir(iris): if not attr.startswith('_'): print(attr) print('=======iris data=======') print(f"type: {type(iris.data)}") print(f"shape: {iris.data.shape}") print(f"dtype: {iris.data.dtype}") print(..
2023.06.23 -
경기도미래기술학교 AI개발자 부트캠프 29일차 TIL- Decision tree란? 엔트로피란? 개념 알고 실습하기.
Decision tree를 배웠다. Decision Tree(의사결정 트리)는 데이터를 분류하거나 예측하기 위한 지도 학습 알고리즘이다. 이 알고리즘은 트리 구조를 사용하여 데이터를 분할하고 판단 규칙을 만들어 내는 방식이다. 이 트리는 데이터의 특성을 기반으로 하여 노드(node)라고 불리는 분기점들을 생성하고, 각 노드는 특정한 조건을 통해 데이터를 분할한다. 분할은 정보 이득(information gain), 지니 불순도(gini impurity), 분산 감소(variance reduction) 등의 지표를 사용하여 이루어진다. log 할 줄을 몰라서 좀 헤맸다. 밑이 있고 log를 어떻게 사용하는지 등을 몰랐다. 이제는 앎. import numpy as np # 로그를 계산할 값. x = 10..
2023.06.19 -
경기도미래기술학교 AI개발자 부트캠프 28일차 TIL-파이썬으로 하는 벡터공부 계속. Mean subtraction 하는 이유, 편차 만들기, 분산, 표준편차 등.
https://bskyvision.com/entry/MSCNmean-subtraction-and-contrast-normalization%EC%9D%98-%EC%9D%B4%ED%95%B4 MSCN(mean subtraction and contrast normalization)의 이해 mean subtraction and contrast normalization (MSCN)은 Difference of Gaussian (DoG), Laplacian of Gaussian (LoG), Gradient Magnitude (GM)와 같은 이미지 전처리 방식 중에 하나이다. 눈에 보이는 것과 우리 뇌에서 이미지를 처리 bskyvision.com Mean subtraction 하는 이유. Mean Subtraction..
2023.06.16