AI개발자부트캠프(37)
-
경기도미래기술학교 AI개발자 부트캠프 49일차 TIL- 소벨필터링 계속 배우기.
오늘은 이런걸 그렸다. 소벨 필터링의 엣지부분에 색칠하는 것. import numpy as np from scipy.signal import correlate2d import matplotlib.pyplot as plt white_patch = 255 * np.ones(shape=(10, 10)) black_patch = 0 * np.ones(shape=(10, 10)) img1 = np.hstack([white_patch, black_patch]) img2 = np.hstack([black_patch, white_patch]) img3 = np.vstack([img1, img2]) img = np.tile(img3, reps=[2, 2]) fig, ax = plt.subplots(ncols=3, fig..
2023.07.16 -
경기도미래기술학교 AI개발자 부트캠프 39일차 TIL- 나이브 베이즈 알고리즘 배우는 주. 기초 통계
https://www.youtube.com/watch?v=me--WQKQQAo 나이브 베이즈 알고리즘은 넷플릭스에서도 사용하는 알고리즘으로 사용자의 추천 알고리즘이다. 빌게이츠도 이 알고리즘을 되게 강조했다고 한다. 인간처럼 사고하는 알고리즘이다. 꼭 알아야 하는 수학적 개념이 확률과 통계이다. https://www.youtube.com/watch?v=KueAHu7iFNE conditional probability(조건부 확률). https://doctorinformationgs.tistory.com/107 조건부 확률과 베이즈 정리 - 2주차 정리 이전 진도 2021.09.11 - [고등 수학/확률과 통계] - 확률의 정의 - 2주차 정리 확률의 정의 - 2주차 정리 참조 문헌 1. Probabilit..
2023.07.03 -
경기도미래기술학교 AI개발자 부트캠프 35일차 TIL- KNN 알고리즘 그려보기.
import numpy as np import matplotlib.pyplot as plt def euclidean_distance(x1, y1, x2, y2): result = (((y1-x1)**2) + ((y2-x2)**2)) ** 0.5 return result n_classes = 4 n_data = 100 X, y = [], [] for class_idx in range(n_classes): centroid = np.random.uniform(low=-10, high=10, size=(2,)) X_ = np.random.normal(loc=centroid, scale=2, size=(n_data, 2)) y_ = class_idx * np.ones(n_data,) X.append(X_) y.a..
2023.06.28 -
경기도미래기술학교 AI개발자 부트캠프 34일차 TIL- KNN 알고리즘 1탄.
#결정계수 구하는 식 : 타겟 - 예측 제곱의 합 / 타겟 - 평균 제곱의 합 결국 문제 해설은 하지 않았고... 슥 훑고 넘어갔다. 나중에 시간 써야 하는 부분이다. 그래도 어제 복습한 내용들 대충은 있으니 그것들 참고해서 진행하자. k-Nearest Neighbor KNN은 전에 동빈나 강의를 사알짝 봤었다. https://www.youtube.com/watch?v=QRWNto6BsfY 그래서 예제 표로 두 점 사이의 거리를 구하는 식을 연습했다. # 5 : speed = 2.75, agility = 7.50 # 12 : speed = 5.00, agility = 2.50 # 유클리디언 : √((5.00 - 2.75)² + (2.50 - 7.50)²) def euclidean_distance(x1, ..
2023.06.26 -
경기도미래기술학교 AI개발자 부트캠프 33일차 TIL- 혼자서 예측 프로그램 만들어보기.
1. 당뇨, 2. 자전거, 3. 골프 회원 의 세 가지를 예측하여 만드는 과제를 받았다. 근데 하나도 몰라서.. 약간 하기 싫었다가 주말에 기초강의를 다시 보고 다시 보니까 조금 이해가 가는 부분. 월요일에 재설명 해주시겠지?? ㅎㅎ 아마 낸 사람 많이 없을 것이다. 수업시간에 따라잡고 공부 열심히 하면 된다. from sklearn.datasets import load_diabetes from sklearn.model_selection import train_test_split from sklearn.tree import DecisionTreeClassifier from sklearn.tree import DecisionTreeRegressor from sklearn.tree import plot_tr..
2023.06.26 -
경기도미래기술학교 AI개발자 부트캠프 31일차 TIL- Continuous Descriptive Features
https://process-mining.tistory.com/42 Decision Tree(의사 결정 나무)란? (Decision tree 설명) Decision Tree는 tree 구조를 활용하여 entropy가 최소화되는 방향으로 데이터를 분류하거나 원하는 어떤 결과값을 예측하는 분석 방법을 말한다. 이번 포스팅에서는 Decision Tree가 무엇이고, 이를 어떻 process-mining.tistory.com import numpy as np # elevation_list = [300,1200,1500,3000,3900,4450,5000] # vegetation_list = [rip,cha,rip,cha,cha,con,con] #4개로 나뉜다. # rip/cha/rip/cha,cha/con,co..
2023.06.21