python(58)
-
axis에 대해서. 1,2,3차원
ndarray에서는 axis0, axis1... 이렇게! 차원 당 이렇게 간다. axis는 0만 있으면 1차원 배열이다. Shape(3,) 이런거. 행의 갯수라고 보면된다. [1,2,3,4] axis 1은 2차원 배열로 나온다. 열의 갯수라고 보면 된다. Shape(2,4). [[1,2,3,4],[1,2,3,4]] axis2는 3차원 배열. Shpae(2,2,4) [[[1,2,3,4],[1,2,3,4]],[[1,2,3,4],[1,2,3,4]]] 3차원은 x,y,z 행,열, 높이라고 치자. 이 때는 컬럼 방향으로 가는게 axis2이다. 높이가 axis 0이고, axis1은 열의 갯수다.
2023.06.27 -
경기도미래기술학교 AI개발자 부트캠프 33일차 TIL- 혼자서 예측 프로그램 만들어보기.
1. 당뇨, 2. 자전거, 3. 골프 회원 의 세 가지를 예측하여 만드는 과제를 받았다. 근데 하나도 몰라서.. 약간 하기 싫었다가 주말에 기초강의를 다시 보고 다시 보니까 조금 이해가 가는 부분. 월요일에 재설명 해주시겠지?? ㅎㅎ 아마 낸 사람 많이 없을 것이다. 수업시간에 따라잡고 공부 열심히 하면 된다. from sklearn.datasets import load_diabetes from sklearn.model_selection import train_test_split from sklearn.tree import DecisionTreeClassifier from sklearn.tree import DecisionTreeRegressor from sklearn.tree import plot_tr..
2023.06.26 -
머신러닝 용어, 기본 개념. 학습데이터? 테스트 데이터? 머신러닝 계의 Hello World인 붓꽃(load_iris) 연습하기.
ML 모델 : Machine Learning Model. Feature : 데이터 세트의 일반적인 속성. 학습데이터(Training Data) 레이블(타겟값) : 피처에 기반해서 학습을 기반으로 답을 학습을 하는 것. 어떤 특성의 라벨링을 붙인 것. 테스트 데이터(Test data) 이 때는 Feature들만 주고 답이 없다. Feature를 기반으로 레이블을 예측을 한다. 그래서 예측을 한 레이블의 값과 테스트 데이터에 실제 값을 비교하여 ML 모델이 얼마나 잘 만들어졌는지에 대한 것을 평가한다. import sklearn import pandas as pd from sklearn.datasets import load_iris from sklearn.tree import DecisionTreeClass..
2023.06.25 -
경기도미래기술학교 AI개발자 부트캠프 30일차 TIL- Decision Tree의 한계. ratio와 지니인덱스
https://tyami.github.io/machine%20learning/decision-tree-3-c4_5/ 의사결정 나무 (Decision Tree) C4.5 알고리즘 설명 의사결정 나무의 기본 알고리즘 중 하나인 C4.5 를 공부해봅시다 tyami.github.io https://tyami.github.io/machine%20learning/decision-tree-1-concept/ 의사결정 나무 (Decision Tree) 기본 설명 Machine learning 알고리즘 중 하나인 의사결정 나무를 공부해봅시다 tyami.github.io 여기서 순서대로 공부해보자. 확률은 probability. 지니 인덱스 : Gini Index = 1 - Σ (p_i)^2 p_i는 각 클래스 i에 대한..
2023.06.20 -
경기도미래기술학교 AI개발자 부트캠프 29일차 TIL- Decision tree란? 엔트로피란? 개념 알고 실습하기.
Decision tree를 배웠다. Decision Tree(의사결정 트리)는 데이터를 분류하거나 예측하기 위한 지도 학습 알고리즘이다. 이 알고리즘은 트리 구조를 사용하여 데이터를 분할하고 판단 규칙을 만들어 내는 방식이다. 이 트리는 데이터의 특성을 기반으로 하여 노드(node)라고 불리는 분기점들을 생성하고, 각 노드는 특정한 조건을 통해 데이터를 분할한다. 분할은 정보 이득(information gain), 지니 불순도(gini impurity), 분산 감소(variance reduction) 등의 지표를 사용하여 이루어진다. log 할 줄을 몰라서 좀 헤맸다. 밑이 있고 log를 어떻게 사용하는지 등을 몰랐다. 이제는 앎. import numpy as np # 로그를 계산할 값. x = 10..
2023.06.19 -
경기도미래기술학교 AI개발자 부트캠프 28일차 TIL-파이썬으로 하는 벡터공부 계속. Mean subtraction 하는 이유, 편차 만들기, 분산, 표준편차 등.
https://bskyvision.com/entry/MSCNmean-subtraction-and-contrast-normalization%EC%9D%98-%EC%9D%B4%ED%95%B4 MSCN(mean subtraction and contrast normalization)의 이해 mean subtraction and contrast normalization (MSCN)은 Difference of Gaussian (DoG), Laplacian of Gaussian (LoG), Gradient Magnitude (GM)와 같은 이미지 전처리 방식 중에 하나이다. 눈에 보이는 것과 우리 뇌에서 이미지를 처리 bskyvision.com Mean subtraction 하는 이유. Mean Subtraction..
2023.06.16