에이블런(31)
-
경기도미래기술학교 AI개발자 부트캠프 52일차 TIL- 머신러닝 공부 계속. randomforestclassifier 등
LogisticRegression(solver='liblinear') 이건 뭔지 모르겠는데..? from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, stratify=y, random_state=42) stratify를 쓰면 학습데이터와 트레이닝, 테스트의 분포가 원래 데이터와 동일하도록 학습시키는 것. 뭔가 치우친 데이터에 적용할 때 특히 유용하다. 임의로 20% 뽑았을 때 잘 안나올 수도 있으니까 이것을 사용한다. 과적합 : 트레이닝 데이터가 테스트에 비해 학습이 잘되긴 하는데, 새로운 값이 들어오면 잘 안맞는 경우가 있음. 앙상블..
2023.07.19 -
경기도미래기술학교 AI개발자 부트캠프 51일차 TIL- 국민행복도 분석.
hue는 꼭 해줘야 한다. 안하면 통자로 나온다. 그리고 안에 컬러를 채우지 않았더니 이렇게 뭔가 핏줄처럼 나왔다. import random #hexadecimal 형식으로 랜덤 색 선택 def rand_color(): return "#" + "".join([random.choice('0123456789ABCDEF') for _ in range(6)]) plt.figure(figsize=(15,5)) sns.kdeplot(data=df, x=df['Ladder score'],hue='Regional indicator') plt.title("지역별 행복지수 분포") plt.axvline(df['Ladder score'].mean(), c='black', ls='--') import random #hexad..
2023.07.18 -
경기도미래기술학교 AI개발자 부트캠프 49일차 TIL- 소벨필터링 계속 배우기.
오늘은 이런걸 그렸다. 소벨 필터링의 엣지부분에 색칠하는 것. import numpy as np from scipy.signal import correlate2d import matplotlib.pyplot as plt white_patch = 255 * np.ones(shape=(10, 10)) black_patch = 0 * np.ones(shape=(10, 10)) img1 = np.hstack([white_patch, black_patch]) img2 = np.hstack([black_patch, white_patch]) img3 = np.vstack([img1, img2]) img = np.tile(img3, reps=[2, 2]) fig, ax = plt.subplots(ncols=3, fig..
2023.07.16 -
경기도미래기술학교 AI개발자 부트캠프 42일차 TIL- 베이즈 정리 실습.
https://www.notion.so/Bayes-Classifier-Project-ffa984d1e998432190d4f26644c65f6c 그렇게 어렵지는 않았다. 응용 문제들.
2023.07.09 -
경기도미래기술학교 AI개발자 부트캠프 41일차 TIL- 베이즈 정리 복습의 복습.
약간 킹벽하게 정리가 된 부분이다. 이번에는 문제가 눈앞에 단지가 하나 있고(X 혹은 Y), 단지 X에는 흰공 9개, 검은 공 1개. 단지 Y에는 흰공 두 개와 검은 공 여덟개다. Prior, likelihood, joint, posterior를 각각 구하는 것이었다. Prior : 잘 모를 때의 확률. X혹은 Y단지일테니까 엄대엄이 다. 5:5 likelihood : X가 흰색일 확률, X가 Y의 확률. Y가 흰색일 확률, Y가 검은색일 확률을 각각 구하는 것이다. 우리가 흔히 하는 확률 분류. joint : Prior와 likelihood를 곱한 값. Posterior : 그 단지의 joint /선택한 공의 총 joint 를 구하면 된다. # import pandas as pd # def update..
2023.07.05 -
경기도미래기술학교 AI개발자 부트캠프 40일차 TIL- 베이즈 정리 계속.
https://www.youtube.com/watch?v=Y4ecU7NkiEI&t=275s 어제 만든 여아의 부모 추정(?)을 함수화 해서 코딩을 다시 만들었다. import pandas as pd def calculate_posterior(df): total_probability = (df['birth_princess_likelihood'] * df['birth_princess_ratio']).sum() print('total_probability:',total_probability) df['posterior_probability'] = df['birth_princess_likelihood'] * df['birth_princess_ratio'] / total_probability return df ta..
2023.07.04