부트캠프TIL(29)
-
경기도미래기술학교 AI개발자 부트캠프 53일차 TIL- 주가예측 머신러닝
fdr.StockListing? 이렇게 메서드에 ?를 치면 인자값 같은 것이 나온다. https://jhy156456.tistory.com/entry/python-shift-pctchange-diff-rolling-resample [python] shift() , pct_change(), diff(), rolling(), resample() [python] shift() , pct_change(), diff(), rolling(), resample() shift() 인덱스에 연결된 데이터를 일정 간격으로 이동시키는 함수. default => period = 1, axis=0(row) axis=1을 하면 데이터가 오른쪽으로 이동하게 된다. mmm jhy156456.tistory.com 여러가지 계산법들이 ..
2023.07.20 -
경기도미래기술학교 AI개발자 부트캠프 48일차 TIL- 소벨 필터링.
from . 양정은 강사님 프로젝트 과제임. 소벨 필터링 ? 이미지 처리나 컴퓨터 비전에서 사용되는 엣지 감지 알고리즘. 일반적으로 가장자리에 해당하는 이미지의 높은 공간 주파수 영역을 강조하는 방법을 제공한다. white_patch = 255*np.ones(shape=(10, 10)) # 10,10 짜리 흰색패치 black_patch = 0*np.ones(shape=(10, 10)) # 10,10 짜리 검정패치 print(white_patch) img1 = np.hstack([white_patch, black_patch]) img2 = np.hstack([black_patch, white_patch]) img = np.vstack([img1, img2]) fig, ax = plt.subplots(fig..
2023.07.13 -
경기도미래기술학교 AI개발자 부트캠프 41일차 TIL- 베이즈 정리 복습의 복습.
약간 킹벽하게 정리가 된 부분이다. 이번에는 문제가 눈앞에 단지가 하나 있고(X 혹은 Y), 단지 X에는 흰공 9개, 검은 공 1개. 단지 Y에는 흰공 두 개와 검은 공 여덟개다. Prior, likelihood, joint, posterior를 각각 구하는 것이었다. Prior : 잘 모를 때의 확률. X혹은 Y단지일테니까 엄대엄이 다. 5:5 likelihood : X가 흰색일 확률, X가 Y의 확률. Y가 흰색일 확률, Y가 검은색일 확률을 각각 구하는 것이다. 우리가 흔히 하는 확률 분류. joint : Prior와 likelihood를 곱한 값. Posterior : 그 단지의 joint /선택한 공의 총 joint 를 구하면 된다. # import pandas as pd # def update..
2023.07.05 -
경기도미래기술학교 AI개발자 부트캠프 40일차 TIL- 베이즈 정리 계속.
https://www.youtube.com/watch?v=Y4ecU7NkiEI&t=275s 어제 만든 여아의 부모 추정(?)을 함수화 해서 코딩을 다시 만들었다. import pandas as pd def calculate_posterior(df): total_probability = (df['birth_princess_likelihood'] * df['birth_princess_ratio']).sum() print('total_probability:',total_probability) df['posterior_probability'] = df['birth_princess_likelihood'] * df['birth_princess_ratio'] / total_probability return df ta..
2023.07.04 -
경기도미래기술학교 AI개발자 부트캠프 34일차 TIL- KNN 알고리즘 1탄.
#결정계수 구하는 식 : 타겟 - 예측 제곱의 합 / 타겟 - 평균 제곱의 합 결국 문제 해설은 하지 않았고... 슥 훑고 넘어갔다. 나중에 시간 써야 하는 부분이다. 그래도 어제 복습한 내용들 대충은 있으니 그것들 참고해서 진행하자. k-Nearest Neighbor KNN은 전에 동빈나 강의를 사알짝 봤었다. https://www.youtube.com/watch?v=QRWNto6BsfY 그래서 예제 표로 두 점 사이의 거리를 구하는 식을 연습했다. # 5 : speed = 2.75, agility = 7.50 # 12 : speed = 5.00, agility = 2.50 # 유클리디언 : √((5.00 - 2.75)² + (2.50 - 7.50)²) def euclidean_distance(x1, ..
2023.06.26 -
경기도미래기술학교 AI개발자 부트캠프 31일차 TIL- Continuous Descriptive Features
https://process-mining.tistory.com/42 Decision Tree(의사 결정 나무)란? (Decision tree 설명) Decision Tree는 tree 구조를 활용하여 entropy가 최소화되는 방향으로 데이터를 분류하거나 원하는 어떤 결과값을 예측하는 분석 방법을 말한다. 이번 포스팅에서는 Decision Tree가 무엇이고, 이를 어떻 process-mining.tistory.com import numpy as np # elevation_list = [300,1200,1500,3000,3900,4450,5000] # vegetation_list = [rip,cha,rip,cha,cha,con,con] #4개로 나뉜다. # rip/cha/rip/cha,cha/con,co..
2023.06.21