분류 전체보기(72)
-
[정보처리기사 필기정리] 메티코드 강의 후기 :: 2강 소프트웨어 개발
강의목차 정보처리기사 2강 공부한드아!!! 강의 정리 및 필기 ♣통합구현개별적으로 만들어진 소프트웨어들을 한 곳에 모아 완성된 프로그램을 만드는 과정.컴파일- 사용자가 코딩을 한 고수준의 언어를 저수준의 언어로 변환하는 작업테스트-오류를 찾는 작업디버그-오류를 수정하는 작업 소프트웨어 재사용-이미 개발된 소프트웨어의 전체 또는 일부분을 재사용하는 기법재공학-기존 소프트웨어 유지.-분석,재구조,역공학- - 분석- 재공학을 설계하기 위해 동작을 이해하는 단계- - 재구조- 추상적인 수준에서 구조를 다른 형태로 바꾸어보는 작업- - 역공학- 기존에 만들어진 소프트웨어를 분석하여 설계를 알아내는 방법- - 아식- 기존 소프트웨어를 새로운 환경에서 사용할 수 있도록 변경재개발-기존의 것..
2024.12.08 -
[정보처리기사] 메타코드 강의 후기 :: 1강 소프트웨어 설계
강의목차 1강에서는 소프트웨어 설계에 관련하여 배운다. 배울 게 많네....그래도 앞으로 있을 강의와 비교했을때 짧은 편에 속하는 편이다. 아자아자.... 정보처리기사 합격을 향하여.... 강의 정리 및 필기 ♣ 인사/강의 소개정보처리기사 자격증은 IT의 전반적인 흐름을 파악하는 데에 도움을 준다. it기업이 아니더라도 it기술은 쓰이기 때문에 전공상관없이 누구나 딸 수 있는 정보처리 기사 자격증을 공부하면 일하는 데에도 도움을 많이 줄 수 있다. 하긴 자격증 후기들을 보면 정말 개나 소나 다 따는 것 같다. 그리고 전공인데도 못따서 메타코드의 도움을 받아 공부하고 있는 내가 레전드... ♣ 현행 시스템 분석현행 시스템 분석 - 요구사항 확인 - 화면 설계 이렇게 한 세트. 요구..
2024.12.02 -
[머신러닝] 머신러닝 입문 올인원 :: 2강 분류_MLE / MAP
2강 분류 :: MLE / MAP MLE(Macinum Likelihood Estimation)우도확률(likelihood)우도확률을 최대화 하겠다.정규분포를 표현하기 위한 파라미터->평균과 분산평균과 분산을 사용해서 데이터가 나올 수 있는 확률을 PDF로 계산샘플이 1부터 n개로 표현될 때, 각각의 모든 데이터들에 대한 PDF 확률이 존재할 것이다. 모든 데이터들에 대한 PDF 값들을 곱해준 것 MLE : 최대 우도 추정법 : 우도 확률을 최대로 만드는 파라미터데이터가 많으면 많을수록 더 좋은 성질을 띈다 MAP : 최대 사후 확률데이터가 주어진 상황에서 가장 출현(w라는 가설)할 수 있는 확률.모르는 것이 w. 베이즈 정리를 사용해야한다. 로지스틱회귀같은 경우 MLE를 사용함.사전확률분포를 가정. ..
2024.05.31 -
[머신러닝] 머신러닝 입문 올인원 :: 2강 분류_Logistic Regression
메타코드의 머신러닝 강의입니다. 2강 분류 :: Logistic Regression 이번 강의에서는 분류 모델에 대해 배운다. 분류 모델에 관련하여 앞으로 배울 것들. 회귀vs분류지도학습(y존재)의 종류가 연속값의 형태인지 이산값의 형태인지.분류보델에서는 이진 분류라면 시그모이드 함수를 사용하고 다중 분류라면 소프트맥스함수를 사용한다. 회귀->라벨의 값이 100이면 연속형의 값에다가 라벨을 부여해줬을때 라벨값이 10으로 도출되면 (100-10)의 제곱의 손실. 라벨값이 1이면 (1-10)의 제곱의 손실. 손실이 큰 100라벨 값에 대해서는 더 잘 학습하려고 하지만 10라벨에 대해서는 굳이 잘 안맞추려고 하는 문제점 생김.=> 다른 손실 함수 필요 => 범주형 라벨링숫자의 크기값이 중요한 것이 아니라 ..
2024.05.31 -
[머신러닝] 머신러닝 입문 올인원 :: 1강 회귀_Validation Data
1강 회귀 :: Validation Data 검증데이터셋검증데이터와 평가데이터의 가장 큰 차이점 -> 학습시에 볼 수 있느냐둘 다 모델의 학습에는 참여를 못한다. 검증데이터셋은 학습 중간중감에 계속해서 평가를 하게 해준다. 오버피팅이슈를 막기 위해. LOOCV->검증된 데이터셋을 잘 나누어 주고 검증데이터셋을 딱 한번만 돌려서 검증데이터셋에 대해서 가장 좋은 성과를 보이는 모델파라미터를 고정하여 평가데이터셋을 돌리면 결과가 좋을수도 나쁠수도 있다. 왜냐하면 한번만 했기 때문에,->데이터 한개를 검증데이터셋으로 만들어보자.(모델파라미터를 없애고)->n번에 대해 평균을 내림(평가데이터와의 차이)->n번이 만개 3만개가 되고 모델이 5개가 있다면 각 모델은 n번을 계산해야 해서 계산비용이 너무 커짐.=>k-..
2024.05.31 -
[머신러닝] 머신러닝 입문 올인원 :: 1강 회귀_Bias and variance Trade-off
1강 회귀 :: Bias and variance Trade-off 편형과 분산문제점과 해결방법에 어떤 것이 있는지 배운다. 학습데이터와 평가데이터로 나눌 수 있다. 평가데이터는 절대로 모델 학습에 사용하면 안된다!!!! -> 과접합이 일어나서?보통 전체 데이터의 10%~20%를 평가데이터로 사용한다.랜덤샘플링 과정을 거쳐서 평가데이터를 만든다. 비슷한 분포를 가지게 됨. 모델의 복잡도란?-선형모델이 있을때, 선형모델의 파라미터는 기울기와 절편이라는 2가지의 파라미터가 존재한다. 이차함수의 형태의 비선형 모델을 만들었다고 가정하면, 이 모델의 파라미터는 3가지가 된다. 선형모델에서 비선형모델로 넘어갈 수록 파라미터가 증가한다.-> 데이터의 학습을 더 완벽하게 할 수 있게됨. 모델이 복잡하다 => 파라미터..
2024.05.31