전체 글(152)
-
지도 학습과 비지도 학습 / training data와 test data의 차이.
지도 학습 : 분류나 회귀(예측) 비지도 학습 : 클러스터링, 차원 축소 머신러닝의 유형 : 베이지안 통계, KNN 알고리즘, 서포트 벡터 머신, 신경망/딥러닝, 결정 트리 traing data : 문제와 답, 문제와 답, 학습을 시킨다. 과정(식)은 머신러닝이여서 학습하지 않는다. 머신러닝 자체는 블랙박스인 것임. test data : 실제는 어떻게 되어있는지 확인하는 데이터. 데이터의 특성을 잘 알아야 한다. 과적합(overfitting) : 트레이닝 데이터가 테스트 데이터에 비해 일반성이 떨어지게 트레이닝을 해서 트레이닝 수치가 테스트보다 높게 나온다.
2023.06.22 -
정보처리기사 공부하기 2일차. 2과목 문제풀이 공부.
오늘 끝까지 다 풀어보니까 딱 60점이 나왔다. 12/12/13/12/11 이렇게 나왔다. 내 문제는 찍은 문제 비율이 꽤 많다는 것이다. 차라리 진짜 시험볼 때 이렇던가.. 그래서 모르는 문제를 좀 덜 모르게 공부를 하고 시험을 봐야 합격할 수 있겠다. 아무튼 오늘도 공부. 통합테스트(Integration Test) : 소프트웨어 각 모듈 간 인터페이스 관련 오류 및 결함을 찾아내기 위한 테스트. * 점증적 방식 - 하향식 개발(Top-Down Development) 큰 규모의 시스템을 작은 규모로 나누는 개발이다. 시스템의 상위모듈부터 하위 모듈까지 차례로 개발하고 통합한다. 최상위 모듈을 개발 후 테스트 한다. -> 다음 수준의 하위 모듈을 개발 후 테스트 한다. -> 개별 모듈을 하위 모듈과 통합..
2023.06.22 -
경기도미래기술학교 AI개발자 부트캠프 31일차 TIL- Continuous Descriptive Features
https://process-mining.tistory.com/42 Decision Tree(의사 결정 나무)란? (Decision tree 설명) Decision Tree는 tree 구조를 활용하여 entropy가 최소화되는 방향으로 데이터를 분류하거나 원하는 어떤 결과값을 예측하는 분석 방법을 말한다. 이번 포스팅에서는 Decision Tree가 무엇이고, 이를 어떻 process-mining.tistory.com import numpy as np # elevation_list = [300,1200,1500,3000,3900,4450,5000] # vegetation_list = [rip,cha,rip,cha,cha,con,con] #4개로 나뉜다. # rip/cha/rip/cha,cha/con,co..
2023.06.21 -
정보처리기사 공부하기 1일차. 1과목 문제풀이 공부.
정보처리기사 접수를 했는데 당장 다다음 주다. 아무튼 시험 보긴 해야 하니까 공부. 오늘은 이렇게 2022년 4월 정처기로 노베이스 스타트를 했다. 모르는게 엄청 많았다. #include int x = 5; char c = 'A'; float f = 3.14; #반복문 int x = 10; if (x > 0) { printf("x is positive"); } else if (x < 0) { printf("x is negative"); } else { printf("x is zero"); } #for문 for (int i = 0; i < 5; i++) { printf("%d\n", i); } int i = 0; while (i < 5) { printf("%d\n", i); i++; } #함수 정의 int..
2023.06.21 -
경기도미래기술학교 AI개발자 부트캠프 30일차 TIL- Decision Tree의 한계. ratio와 지니인덱스
https://tyami.github.io/machine%20learning/decision-tree-3-c4_5/ 의사결정 나무 (Decision Tree) C4.5 알고리즘 설명 의사결정 나무의 기본 알고리즘 중 하나인 C4.5 를 공부해봅시다 tyami.github.io https://tyami.github.io/machine%20learning/decision-tree-1-concept/ 의사결정 나무 (Decision Tree) 기본 설명 Machine learning 알고리즘 중 하나인 의사결정 나무를 공부해봅시다 tyami.github.io 여기서 순서대로 공부해보자. 확률은 probability. 지니 인덱스 : Gini Index = 1 - Σ (p_i)^2 p_i는 각 클래스 i에 대한..
2023.06.20 -
경기도미래기술학교 AI개발자 부트캠프 29일차 TIL- Decision tree란? 엔트로피란? 개념 알고 실습하기.
Decision tree를 배웠다. Decision Tree(의사결정 트리)는 데이터를 분류하거나 예측하기 위한 지도 학습 알고리즘이다. 이 알고리즘은 트리 구조를 사용하여 데이터를 분할하고 판단 규칙을 만들어 내는 방식이다. 이 트리는 데이터의 특성을 기반으로 하여 노드(node)라고 불리는 분기점들을 생성하고, 각 노드는 특정한 조건을 통해 데이터를 분할한다. 분할은 정보 이득(information gain), 지니 불순도(gini impurity), 분산 감소(variance reduction) 등의 지표를 사용하여 이루어진다. log 할 줄을 몰라서 좀 헤맸다. 밑이 있고 log를 어떻게 사용하는지 등을 몰랐다. 이제는 앎. import numpy as np # 로그를 계산할 값. x = 10..
2023.06.19