메타코드m(12)
-
[머신러닝] 머신러닝 입문 올인원 :: 1강 회귀_Bias and variance Trade-off
1강 회귀 :: Bias and variance Trade-off 편형과 분산문제점과 해결방법에 어떤 것이 있는지 배운다. 학습데이터와 평가데이터로 나눌 수 있다. 평가데이터는 절대로 모델 학습에 사용하면 안된다!!!! -> 과접합이 일어나서?보통 전체 데이터의 10%~20%를 평가데이터로 사용한다.랜덤샘플링 과정을 거쳐서 평가데이터를 만든다. 비슷한 분포를 가지게 됨. 모델의 복잡도란?-선형모델이 있을때, 선형모델의 파라미터는 기울기와 절편이라는 2가지의 파라미터가 존재한다. 이차함수의 형태의 비선형 모델을 만들었다고 가정하면, 이 모델의 파라미터는 3가지가 된다. 선형모델에서 비선형모델로 넘어갈 수록 파라미터가 증가한다.-> 데이터의 학습을 더 완벽하게 할 수 있게됨. 모델이 복잡하다 => 파라미터..
2024.05.31 -
[머신러닝] 머신러닝 입문 올인원 :: 1강 회귀_Gradient Descent
1강 회귀 :: Gradient Descent 이번 강의에서는 그 유명한 경사하강법에 대해 배운다. 복잡한 함수의 경우 최소제곱법으로 해결이 어려움.행렬의 역행렬을 구하는 것도 계산 비용이 많이 든다. 2행렬과 100행렬을 계산하는 경우 50배가 느는 것이 아니라 기하급수적으로 계산비용이 든다.경사하강법- 경사를 하강한다. 손실한수가 있을때 손실함수 값을 최소화하는 방법. 경사하강법함수의 최솟값은 무조건 순간 변화율이 0이다!!슈도 코드손실함수에 대한 미분값. a0에대한 편미분값이 3이 나올때, 순간변화율이 3이라는 것은 a0가 순각적으로 커졌을경우 3이 플러스된다는 의미. 우리는 손실함수값을 줄이는 것이 목적. -를 붙여줌.마이너스를 해주어야 손실함수값이 낮아지는곳으로 가게 됨. 미분값의 반대방향으로..
2024.05.30 -
[머신러닝] 머신러닝 입문 올인원 :: 1강 회귀_Least square method
1강 회귀 :: Least square method optimal -> *로 표현optimization -> W0*을 뽑아내는 것 편미분원하는 변수에 대해서만 미분. 다른 것들은 상수로 취급.델타로 표현. 연쇄법칙미분을 한다고 가정할때,미분을 표현하는 식은 분수 형태임. du/du 를 곱해줌.u라는 새로운 변수를 도입을 시켜서 y에 대해서 u로 미분하고(step1), u에 대해서 x로 미분하는 것(step2)2가지 step으로 쪼개보는 것. 손실함수에 대해서 정의할 수 있어야 함. (어떤 문제를 정의하였고 어떤 모델을 정의한 이후에)문제에 대한 손실함수.회귀문제에 어울리는 회쉬함수가 존재하고 분류문제에 어울리는 손실함수가 존재함. 분류문제는 다음시간에회귀문제에서는 MSE가 쓰임 평균 제곱 오차(MSE)실..
2024.05.05 -
[머신러닝] 머신러닝 입문 올인원 :: 1강 회귀_Basic Math for ML
이번 시간에는 머신러닝을 배울때 필요한 수학개녕을 배운다. 1강 회귀 :: Basic Math for ML ♣결정경계 경계를 나누는 선이 선형이냐 비선형이냐를 본다. 결정경계가 일직선이면 선형이고 꾸불꾸불한 비선형이다. 이것은 회귀모델의 선형 모델,비션형 모델의 선형, 비선형과는 다르다. 회귀모델의 선형,비선형은 모양이라기모다는 데이터와 파라미터 사이가 선형적인 사이로 결합이 되어있냐 아니냐를 말한다. ♣ 함수. 두 집합 사이의 관계, 혹은 규칙을 찾아주는, 맵핑해주는 것을 말한다. 입력되는값을 x로 축력값을 y로 표현한다. 함수는 function의 f로 표현한다. 피처 부분과 라벨을 표현하는 완벽한 관계가 존재할 것이다. 그러한 상황을 표현하기 위해서 y=f(x)로 표현. ♣ 일차함수 y가 x의 일차식..
2024.04.21 -
[머신러닝] 머신러닝 입문 올인원 :: 1강 회귀_Notation
오늘은 회귀에 대해 배우기 전에 용어 정리를 한다. 1강 회귀 :: Notation ♣회귀 입력값 : 연속값,이산값 등 모두 가능. 출력값 : 연속값 모델 형태 : 일반적인 함수 형태->머신러닝 모델 ♣ 분류 입력값 : 연속값,이산값 등 모두 가능. 출력값 : 이산값 모델 형태 : 이진 분류라면 시그모이드 함수, 다중분류라면 소프트맥스 함수 꼭 포함 (일반적인 함수에 추가) 클래스가 2개인 것을 이진 분류. 클래스가 다중인 것을 다중분류 데이터의 용어에 대해 배운다. 데이터는 피처와 라벨로 구성된다. 에측하고 싶어하는 목표가 라벨. 피처는 주어진 데이터를 말한다. 피처는 독립변수이고 라벨은 종속 변수이다. 라벨은 y로 표기하고,피처는 x로 표기한다. 라벨의 유무로 지도학습, 비지도학습 분류한다. 라벨이 ..
2024.04.21 -
[머신러닝] 머신러닝 입문 올인원 :: 1강 회귀_인사/강좌소개
메타코드에서 진행하는 4기 서포터즈에 운 좋게 참여하게 되었다. 메타코드에는 AI와 데이터분석 관련한 다양한 강의들이 있었고, 나는 고민하다가 머신러닝을 신청하여 듣게 되었다. ai 엔지니어로 취업준비를 하면서 느낀건데 나는 아직 딥러닝 기초 지식이 너무 부족하여 기초부터 차근차근 쌓아야 겠다고 생각하던 중 메타코드 강의 목록을 보게 되었고 머신러닝부터 알아야 딥러닝 또한 잘 알 수 있지 않을까 하는 생각에 머신러닝을 골랐다. 무려 카이스트 ai 박사과정을 하고 계신 분이 강의를 해주신다. 1강 회귀 :: 인사/강좌소개 이분이 카이스트 ai 박사과정을 밟고 계신 배상민 강사님이시다. 머신러닝강의는 총 5가지 세션으로 나뉜다. 회귀,분류,앙상블학습,차원축소,군집화 인공지능, 머신러닝, 딥러닝은 자주 같이 ..
2024.04.21