[Hands-On ML] 13장. 텐서플로를 사용한 데이터 적재와 전처리 - 3
keras 전처리 층(StringLookup, Hashing, Embedding, TextVectorization, 사전 훈련된 요소 활용, 이미지 전처리), TFDS
keras 전처리 층(StringLookup, Hashing, Embedding, TextVectorization, 사전 훈련된 요소 활용, 이미지 전처리), TFDS
TFRecord 포맷, 프로토콜 버퍼, keras 전처리 층(Normalization, Discretization, CategoryEncoding)
Tensorflow를 사용하여 csv 파일 전처리하기
사용자 정의 훈련 반복, Tensorflow 함수
사용자 정의 층과 모델, tf.GradientTape()를 이용한 후진 자동 미분
Tensorflow 기본 및 사용자 정의 손실 함수, 활성화 함수, 초기화, 규제, 제한, 지표
l1, l2 규제, dropout, max-norm, 신경망 설계 가이드라인
다양한 고속 Optimizer, 학습 스케줄링
배치 정규화, 전이 학습
Vanishing, Exploding Gradient, Glorot 초기화, ReLU의 변형
keras tuner, 하이퍼파라미터 튜닝 가이드라인
함수형 API, Subclassing API, 모델 저장과 복원, callback, tensorboard
keras Sequential API
퍼셉트론과 역전파, 다층 퍼셉트론
Gaussian Mixture Model
Application of Eigen Decomposition and SVD
이미지 분할, 준지도 학습, DBSCAN
How to get SVD
군집화와 k-means
Perspectives of Singular Value Decomposition
Random Projection, LLE, 다른 차원 축소 기법
주성분 분석 PCA
AdaBoost, Gradient Boosting, Histogram-based Gradient Boosting, Stacking
Eigen Decomposition on the perspective of Linear transformation
앙상블과 랜덤 포레스트
DecisionTree
Diagonalization
신경망을 이용한 XOR 문제 해결, 텐서보드
Characteristic Eqaution
SVM의 목적 함수와 커널 트릭의 원리
Nullspace and orthogonal complement
Eigenvector and Eigenvalue
SVM을 사용한 분류와 회귀
Gram-Schmidt Orthogonalization & A=QR
로지스틱 회귀와 softmax
Orthogonal Projection & Linear Transformation
keras로 신경망 구축하기
이상치 탐지, fine tuning, feature extraction
정규화, 학습률 감쇠
Orthonormal sets, Orthogonal Projection
학습 곡선, Ridge, Lasso, Elasticnet, Early Stopping
과대적합과 과소적합
학습 스케줄링과 특성 스케일링, 잡음 처리
선형 회귀와 정규방정식, 경사 하강법, 다항 회귀
Least Squares와 그 기하학적 의미
Tensorflow로 softmax 구현하기
다중 분류, 다중 레이블 분류, 다중 출력 분류
Least Square Solution
Onto와 One-To-One, 신경망에서의 의미
Linear transformation
이항 분류기, 정밀도, 재현율, ROC 곡선
텐서플로를 이용한 로지스틱 회귀 구현
로지스틱 회귀의 비용함수
Subspace, basis, dimension, column space, rank
Matrix를 사용하여 선형 회귀 구현하기
Linear Independent
모델 훈련, 평가하고 배포하기
선형결합, Span, Matrix의 곱을 대하는 네 가지 관점
numpy와 tensorlow를 이용한 경사 하강법 구현
Scalar, Vector, Matrix의 개념과 계산법
데이터를 가져와서 시각화로 탐색하기까지
Scalar, Vector, Matrix의 개념과 계산법
단순 선형 회귀 구현하기
머신러닝의 개념 (다른 포스트로 대체)
머신러닝의 주요 도전 과제, 데이터셋의 구분, 데이터 불일치
머신러닝의 정의와 효용. 머신러닝 시스템의 다양한 분류
‘머신러닝을 위한 파이썬’를 수료하며
Dev set과 교차 검증의 다양한 방법들
다양한 경사하강법 방식, 과대적합을 막기 위한 규제
한 개 이상의 특성이 있을 때의 경사 하강법, 모델의 성능 평가하기
경사하강법으로 선형 회귀 구현하기
실습 - 정규방정식으로 선형 회귀 구현하기
선형 회귀, 비용 함수, 정규 방정식
실습 - 비행기 승객 데이터 다루기
결측치 처리, 이산형 데이터 처리, 데이터 스케일링
matplotlib을 통한 데이터 시각화
Pandas의 Groupby, 피벗 테이블, 크로스탭, Merge, Persistence
Pandas의 사용법
NumPy의 사용법
실습 - 유사한 뉴스 선정하기
벡터와 행렬의 연산을 파이썬스럽게 구현하기
파이썬스럽게 코드 짜기 - Asterisk와 collection 모듈
파이썬스럽게 코드 짜기 - split, join, list comprehension, 람다 함수, map, reduce
‘Deep Learning Specialization 4단계’를 수료하며
신경망으로 그림의 스타일 바꾸기
얼굴 인식을 위한 샴 네트워크, 삼중항 손실
IOU, 비최대억제, 앵커 상자. 이를 합한 YOLO 알고리즘
물체를 인식하여 경계 상자 그리기
컴퓨터 비전에서의 전이학습과 데이터 증가
1 x 1 신경망과 인셉션 신경망
합성곱 층을 사용하는 다양한 신경망
컴퓨터 비전을 위한 합성곱
‘Deep Learning Specialization 3단계’를 수료하며
End-to-end 딥러닝의 개요와 사용 요령
전이학습과 다중 작업 학습
오차 원인을 발견했을 때 어떻게 해야 하나
인간의 성능과 AI 모델
‘Deep Learning Specialization 2단계’를 수료하며
딥러닝 프레임워크와 Tensorflow 구현
초매개변수의 선택과 관련된 다양한 통찰
모멘텀 최적화, RMS prop, Adam 최적화 알고리즘. 그리고 학습률 감쇠와 안장지대까지.
미니 배치 경사하강법과 지수 가중 평균
입력 정규화와 경사 검사
모델 생성에 사용되는 여러 집합, 편향과 분산
‘Deep Learning Specialization 1단계’를 수료하며
심층 신경망에서의 정방향 연산과 역방향 연산
얕은 신경망에 벡터화를 이용한 경사하강법 적용하기
벡터화를 통한 반복문 없애기
로지스틱 회귀와 경사하강법
신경망이란 무엇인가, 신경망의 종류와 활용
지도학습 마무리 & 통계의 함정
지도학습: k-최근접 분류와 로지스틱 회귀
알파고와 구글 홈, 챗 GPT까지
비지도학습: 위계적 군집화와 k-평균 알고리즘
keras 전처리 층(StringLookup, Hashing, Embedding, TextVectorization, 사전 훈련된 요소 활용, 이미지 전처리), TFDS
TFRecord 포맷, 프로토콜 버퍼, keras 전처리 층(Normalization, Discretization, CategoryEncoding)
Tensorflow를 사용하여 csv 파일 전처리하기
사용자 정의 훈련 반복, Tensorflow 함수
사용자 정의 층과 모델, tf.GradientTape()를 이용한 후진 자동 미분
Tensorflow 기본 및 사용자 정의 손실 함수, 활성화 함수, 초기화, 규제, 제한, 지표
l1, l2 규제, dropout, max-norm, 신경망 설계 가이드라인
다양한 고속 Optimizer, 학습 스케줄링
배치 정규화, 전이 학습
Vanishing, Exploding Gradient, Glorot 초기화, ReLU의 변형
keras tuner, 하이퍼파라미터 튜닝 가이드라인
함수형 API, Subclassing API, 모델 저장과 복원, callback, tensorboard
keras Sequential API
퍼셉트론과 역전파, 다층 퍼셉트론
Gaussian Mixture Model
이미지 분할, 준지도 학습, DBSCAN
군집화와 k-means
Random Projection, LLE, 다른 차원 축소 기법
주성분 분석 PCA
AdaBoost, Gradient Boosting, Histogram-based Gradient Boosting, Stacking
앙상블과 랜덤 포레스트
DecisionTree
SVM의 목적 함수와 커널 트릭의 원리
SVM을 사용한 분류와 회귀
로지스틱 회귀와 softmax
학습 곡선, Ridge, Lasso, Elasticnet, Early Stopping
선형 회귀와 정규방정식, 경사 하강법, 다항 회귀
다중 분류, 다중 레이블 분류, 다중 출력 분류
이항 분류기, 정밀도, 재현율, ROC 곡선
모델 훈련, 평가하고 배포하기
데이터를 가져와서 시각화로 탐색하기까지
머신러닝의 정의와 효용. 머신러닝 시스템의 다양한 분류
‘머신러닝을 위한 파이썬’를 수료하며
Dev set과 교차 검증의 다양한 방법들
다양한 경사하강법 방식, 과대적합을 막기 위한 규제
한 개 이상의 특성이 있을 때의 경사 하강법, 모델의 성능 평가하기
경사하강법으로 선형 회귀 구현하기
실습 - 정규방정식으로 선형 회귀 구현하기
선형 회귀, 비용 함수, 정규 방정식
실습 - 비행기 승객 데이터 다루기
결측치 처리, 이산형 데이터 처리, 데이터 스케일링
matplotlib을 통한 데이터 시각화
Pandas의 Groupby, 피벗 테이블, 크로스탭, Merge, Persistence
Pandas의 사용법
NumPy의 사용법
실습 - 유사한 뉴스 선정하기
벡터와 행렬의 연산을 파이썬스럽게 구현하기
파이썬스럽게 코드 짜기 - Asterisk와 collection 모듈
파이썬스럽게 코드 짜기 - split, join, list comprehension, 람다 함수, map, reduce
‘MIT 파이썬을 이용한 알고리즘의 이해’를 수료하며
동적 프로그래밍으로 프로세서의 성능 개선하기
다양한 계산 복잡도 문제들
동적 프로그래밍으로 실생활 문제해결
동적 프로그래밍으로 실생활 문제해결
동적 프로그래밍의 일반적 단계와 실생활 문제해결
현실에서 잘 작동하는 최단 경로 구하기 가속화 방법들
벨만-포드 알고리즘
DAG 최단경로, 다익스트라 알고리즘
가중치가 있는 최단 경로 문제
깊이 우선 탐색 알고리즘과 그 효용
그래프에서의 너비 우선 탐색 알고리즘
고정밀 나눗셈과 시간 복잡도
무리수 정밀하게 계산하기, 카탈란 수
개방 주소법과 암호학적 해싱
해시 테이블 크기 조정, 분할상환 분석, 문자열 매칭
딕셔너리와 해싱
결정 트리, 선형 시간 정렬
균형 이진 탐색 트리 만들기
이진 탐색 트리(BST)
힙, 최대 힙, 힙 정렬
삽입 정렬과 병합 정렬
임의 접근 머신, 포인터 머신과 파이썬에서의 계산 모델, 그리고 문서 거리 문제까지.
1차원과 2차원에서 극댓값 찾기
Coupon Collector Problem, Universality, Symmetry, Swapping Success and Failure, Email Problem
Location and Scale of Normal Distribution, Variations, LOTUS
Uniform Distribution, Independenc of random variables, Normal Distribution
Continuous R.V, Uniform Distribution
The Poisson distribution, Poisson Paradigm
Expectation, Negative Binomial, Putnam, St.Petersburg Paradox
Expectation, Indicator Random Variables, Linearity, Geometric Distribution
Binomial Distribution and Random Variables, CDF, and PMF
Gambler’s Ruin and Random Variables
Monty Hall, Simpson’s Paradox
Law of Total Probability, Biohazards, Conditional Independence
Independent, Newton-Pepy’s Problem, Conditional Probability
Birthday Problem, Properties of Probability, deMontMort’s problem
Story Proofs, Axioms of Probability
Naive definition of probability, Multiplication rule, Sampling table
Application of Eigen Decomposition and SVD
How to get SVD
Perspectives of Singular Value Decomposition
Eigen Decomposition on the perspective of Linear transformation
Diagonalization
Characteristic Eqaution
Nullspace and orthogonal complement
Eigenvector and Eigenvalue
Gram-Schmidt Orthogonalization & A=QR
Orthogonal Projection & Linear Transformation
Orthonormal sets, Orthogonal Projection
Least Squares와 그 기하학적 의미
Least Square Solution
Onto와 One-To-One, 신경망에서의 의미
Linear transformation
Subspace, basis, dimension, column space, rank
Linear Independent
선형결합, Span, Matrix의 곱을 대하는 네 가지 관점
Scalar, Vector, Matrix의 개념과 계산법
Scalar, Vector, Matrix의 개념과 계산법
Vanishing, Exploding Gradient, Glorot 초기화, ReLU의 변형
keras로 신경망 구축하기
‘Deep Learning Specialization 4단계’를 수료하며
신경망으로 그림의 스타일 바꾸기
얼굴 인식을 위한 샴 네트워크, 삼중항 손실
IOU, 비최대억제, 앵커 상자. 이를 합한 YOLO 알고리즘
물체를 인식하여 경계 상자 그리기
컴퓨터 비전에서의 전이학습과 데이터 증가
1 x 1 신경망과 인셉션 신경망
합성곱 층을 사용하는 다양한 신경망
컴퓨터 비전을 위한 합성곱
‘Deep Learning Specialization 3단계’를 수료하며
End-to-end 딥러닝의 개요와 사용 요령
전이학습과 다중 작업 학습
오차 원인을 발견했을 때 어떻게 해야 하나
인간의 성능과 AI 모델
‘Deep Learning Specialization 2단계’를 수료하며
미니 배치 경사하강법과 지수 가중 평균
입력 정규화와 경사 검사
모델 생성에 사용되는 여러 집합, 편향과 분산
‘Deep Learning Specialization 1단계’를 수료하며
심층 신경망에서의 정방향 연산과 역방향 연산
얕은 신경망에 벡터화를 이용한 경사하강법 적용하기
신경망이란 무엇인가, 신경망의 종류와 활용
‘MIT 파이썬을 이용한 알고리즘의 이해’를 수료하며
동적 프로그래밍으로 프로세서의 성능 개선하기
다양한 계산 복잡도 문제들
동적 프로그래밍으로 실생활 문제해결
동적 프로그래밍으로 실생활 문제해결
동적 프로그래밍의 일반적 단계와 실생활 문제해결
현실에서 잘 작동하는 최단 경로 구하기 가속화 방법들
벨만-포드 알고리즘
DAG 최단경로, 다익스트라 알고리즘
가중치가 있는 최단 경로 문제
깊이 우선 탐색 알고리즘과 그 효용
그래프에서의 너비 우선 탐색 알고리즘
고정밀 나눗셈과 시간 복잡도
무리수 정밀하게 계산하기, 카탈란 수
개방 주소법과 암호학적 해싱
해시 테이블 크기 조정, 분할상환 분석, 문자열 매칭
딕셔너리와 해싱
결정 트리, 선형 시간 정렬
균형 이진 탐색 트리 만들기
이진 탐색 트리(BST)
힙, 최대 힙, 힙 정렬
삽입 정렬과 병합 정렬
임의 접근 머신, 포인터 머신과 파이썬에서의 계산 모델, 그리고 문서 거리 문제까지.
1차원과 2차원에서 극댓값 찾기
GAN, DCGAN, ProGAN
Convolutional Autoencoder, Denoising Autoencoder, Sparsity Autoencoder, Variational Autoencoder
An innovative ensemble model that can predict baseball WAR
Introduction of t-SNE
Vision Transformer, Hugging Face
Multi-head Attention of transformer, GPT, BERT, DistilBERT, and PaLM
Bidirectional RNN, Beam Search, Attention Mechanism, Transformer
Sentiment Analysis, Encoder-decoder translation
Character(Char)-RNN
Competition winnig model of ImageNet 2012
Long Sequence: Layer Normalization, LSTM, GRU, 1D Conv Layer, WaveNet
RNN Model Building (from data preparation)
Time series with RNN
Review paper of Deep Learning
Object Detection, YOLO, Tracking, Semantic Segmentation
Code for ResNet-34, Using Pre-trained Model(+ Transfer learning), and Location Prediction
Various Structures of CNN
Basic concept of CNN, Filter, Pooling
Which value or method works well for NN hyperparameters?
AI in Football: Corner kick
Outline of automatic translation utilizing statistical information extraction by using large data
Importance of data itself
Large Corpora can solve disambiguation of NLP.
‘MIT 데이터 사이언스 기초’를 수료하며
지도학습 마무리 & 통계의 함정
지도학습: k-최근접 분류와 로지스틱 회귀
비지도학습: 위계적 군집화와 k-평균 알고리즘
왜 결정계수가 가장 좋은 모델을 선택하면 안되는가
‘파이썬으로 시작하는 데이터 사이언스’를 수료하며
1개의 샘플로 할 수 있는 많은 것들
tidy 데이터 만들기. 전처리와 시각화의 몇 가지 유용한 팁
중심극한정리를 사용하여 ‘경험적인 규칙’을 룰렛에 적용하기. 확률밀도함수의 원리를 적용한 시뮬레이션으로 원주율의 값 구하기.
seaborn을 사용한 다양한 시각화, 상관 계수 분석과 heatmap 그리기
몬테 카를로 시뮬레이션과 다양한 확률 법칙
그룹화하기와 피벗테이블 만들기, 히스토그램과 막대그래프로 시각화하기
랜덤워크를 이용해서 시뮬레이션 모델 검증하고 변형하기
시각화의 다양한 방법, 데이터 색인하기, 지도 활용하기
확률과 이를 구하는 강력한 방법인 시뮬레이션 모델
결측치 다루기, 기초 통계량 파악하기, pandas만으로 시각화하기
그래프와 최적화 문제. 이를 푸는 DFS와 BFS
탐색 트리의 개념과 동적 프로그래밍을 이용해 이를 효율적으로 계산하는 방법
Pandas로 csv파일 가져오기, 데이터셋 다루기
시작
간단한 OT, 계산모델, 최적화 모델, 무차별 대입 알고리즘과 탐욕 알고리즘에 대하여
GAN, DCGAN, ProGAN
Convolutional Autoencoder, Denoising Autoencoder, Sparsity Autoencoder, Variational Autoencoder
Vision Transformer, Hugging Face
Multi-head Attention of transformer, GPT, BERT, DistilBERT, and PaLM
Bidirectional RNN, Beam Search, Attention Mechanism, Transformer
Sentiment Analysis, Encoder-decoder translation
Character(Char)-RNN
Long Sequence: Layer Normalization, LSTM, GRU, 1D Conv Layer, WaveNet
RNN Model Building (from data preparation)
Time series with RNN
Object Detection, YOLO, Tracking, Semantic Segmentation
Code for ResNet-34, Using Pre-trained Model(+ Transfer learning), and Location Prediction
Various Structures of CNN
Basic concept of CNN, Filter, Pooling
딥러닝 프레임워크와 Tensorflow 구현
벡터화를 통한 반복문 없애기
‘파이썬으로 시작하는 데이터 사이언스’를 수료하며
tidy 데이터 만들기. 전처리와 시각화의 몇 가지 유용한 팁
seaborn을 사용한 다양한 시각화, 상관 계수 분석과 heatmap 그리기
그룹화하기와 피벗테이블 만들기, 히스토그램과 막대그래프로 시각화하기
시각화의 다양한 방법, 데이터 색인하기, 지도 활용하기
결측치 다루기, 기초 통계량 파악하기, pandas만으로 시각화하기
Pandas로 csv파일 가져오기, 데이터셋 다루기
Application of Eigen Decomposition and SVD
How to get SVD
Perspectives of Singular Value Decomposition
Eigen Decomposition on the perspective of Linear transformation
Diagonalization
Characteristic Eqaution
Nullspace and orthogonal complement
Eigenvector and Eigenvalue
Gram-Schmidt Orthogonalization & A=QR
Orthogonal Projection & Linear Transformation
Orthonormal sets, Orthogonal Projection
Least Squares와 그 기하학적 의미
Least Square Solution
Onto와 One-To-One, 신경망에서의 의미
Linear transformation
Subspace, basis, dimension, column space, rank
Linear Independent
선형결합, Span, Matrix의 곱을 대하는 네 가지 관점
Scalar, Vector, Matrix의 개념과 계산법
Scalar, Vector, Matrix의 개념과 계산법
Coupon Collector Problem, Universality, Symmetry, Swapping Success and Failure, Email Problem
Location and Scale of Normal Distribution, Variations, LOTUS
Uniform Distribution, Independenc of random variables, Normal Distribution
Continuous R.V, Uniform Distribution
The Poisson distribution, Poisson Paradigm
Expectation, Negative Binomial, Putnam, St.Petersburg Paradox
Expectation, Indicator Random Variables, Linearity, Geometric Distribution
Binomial Distribution and Random Variables, CDF, and PMF
Gambler’s Ruin and Random Variables
Monty Hall, Simpson’s Paradox
Law of Total Probability, Biohazards, Conditional Independence
Independent, Newton-Pepy’s Problem, Conditional Probability
Birthday Problem, Properties of Probability, deMontMort’s problem
Story Proofs, Axioms of Probability
Naive definition of probability, Multiplication rule, Sampling table
1개의 샘플로 할 수 있는 많은 것들
중심극한정리를 사용하여 ‘경험적인 규칙’을 룰렛에 적용하기. 확률밀도함수의 원리를 적용한 시뮬레이션으로 원주율의 값 구하기.
몬테 카를로 시뮬레이션과 다양한 확률 법칙
확률과 이를 구하는 강력한 방법인 시뮬레이션 모델
Coupon Collector Problem, Universality, Symmetry, Swapping Success and Failure, Email Problem
Location and Scale of Normal Distribution, Variations, LOTUS
Uniform Distribution, Independenc of random variables, Normal Distribution
Continuous R.V, Uniform Distribution
The Poisson distribution, Poisson Paradigm
Expectation, Negative Binomial, Putnam, St.Petersburg Paradox
Expectation, Indicator Random Variables, Linearity, Geometric Distribution
Binomial Distribution and Random Variables, CDF, and PMF
Gambler’s Ruin and Random Variables
Monty Hall, Simpson’s Paradox
Law of Total Probability, Biohazards, Conditional Independence
Independent, Newton-Pepy’s Problem, Conditional Probability
Birthday Problem, Properties of Probability, deMontMort’s problem
Story Proofs, Axioms of Probability
Naive definition of probability, Multiplication rule, Sampling table
지도학습 마무리 & 통계의 함정
선형 회귀와 정규방정식, 경사 하강법, 다항 회귀
Matrix를 사용하여 선형 회귀 구현하기
numpy와 tensorlow를 이용한 경사 하강법 구현
단순 선형 회귀 구현하기
‘머신러닝을 위한 파이썬’를 수료하며
Dev set과 교차 검증의 다양한 방법들
다양한 경사하강법 방식, 과대적합을 막기 위한 규제
한 개 이상의 특성이 있을 때의 경사 하강법, 모델의 성능 평가하기
경사하강법으로 선형 회귀 구현하기
실습 - 정규방정식으로 선형 회귀 구현하기
선형 회귀, 비용 함수, 정규 방정식
로지스틱 회귀와 softmax
텐서플로를 이용한 로지스틱 회귀 구현
로지스틱 회귀의 비용함수
‘머신러닝을 위한 파이썬’를 수료하며
얕은 신경망에 벡터화를 이용한 경사하강법 적용하기
벡터화를 통한 반복문 없애기
로지스틱 회귀와 경사하강법
지도학습 마무리 & 통계의 함정
지도학습: k-최근접 분류와 로지스틱 회귀
Law of Large Numbers, Central Limit Theorem
Inequalities
Conditional Expectation given an R.V.
Money Envelope Problem, Patterns in Coin Flips, Conditional Expectation
Bank-Post office Example, Order Statistics, Conditional Expectations
Gamma distribution and Poisson process
Beta distribution
Transformations and Convolutions
Covariance and Correlation
Multinomial and Cauchy Interview Problem
Joint, Conditional, and Marginal Distributions, 2D-LOTUS, Chicken Egg Problem
MGFs, Joint Distribution
Memoryless Property, Moment Generating Functions, Laplace Rule of Succession
Exponential Distribution
Law of Large Numbers, Central Limit Theorem
Inequalities
Conditional Expectation given an R.V.
Money Envelope Problem, Patterns in Coin Flips, Conditional Expectation
Bank-Post office Example, Order Statistics, Conditional Expectations
Gamma distribution and Poisson process
Beta distribution
Transformations and Convolutions
Covariance and Correlation
Multinomial and Cauchy Interview Problem
Joint, Conditional, and Marginal Distributions, 2D-LOTUS, Chicken Egg Problem
MGFs, Joint Distribution
Memoryless Property, Moment Generating Functions, Laplace Rule of Succession
Exponential Distribution
Law of Large Numbers, Central Limit Theorem
Inequalities
Conditional Expectation given an R.V.
Money Envelope Problem, Patterns in Coin Flips, Conditional Expectation
Bank-Post office Example, Order Statistics, Conditional Expectations
Gamma distribution and Poisson process
Beta distribution
Transformations and Convolutions
Covariance and Correlation
Multinomial and Cauchy Interview Problem
Joint, Conditional, and Marginal Distributions, 2D-LOTUS, Chicken Egg Problem
MGFs, Joint Distribution
Memoryless Property, Moment Generating Functions, Laplace Rule of Succession
Exponential Distribution
An innovative ensemble model that can predict baseball WAR
Introduction of t-SNE
Competition winnig model of ImageNet 2012
Review paper of Deep Learning
Various Structures of CNN
Which value or method works well for NN hyperparameters?
AI in Football: Corner kick
Outline of automatic translation utilizing statistical information extraction by using large data
Importance of data itself
Large Corpora can solve disambiguation of NLP.
RNN Model Building (from data preparation)
Code for ResNet-34, Using Pre-trained Model(+ Transfer learning), and Location Prediction
Basic concept of CNN, Filter, Pooling
keras 전처리 층(StringLookup, Hashing, Embedding, TextVectorization, 사전 훈련된 요소 활용, 이미지 전처리), TFDS
TFRecord 포맷, 프로토콜 버퍼, keras 전처리 층(Normalization, Discretization, CategoryEncoding)
l1, l2 규제, dropout, max-norm, 신경망 설계 가이드라인
배치 정규화, 전이 학습
Vanishing, Exploding Gradient, Glorot 초기화, ReLU의 변형
keras tuner, 하이퍼파라미터 튜닝 가이드라인
함수형 API, Subclassing API, 모델 저장과 복원, callback, tensorboard
keras Sequential API
베젤리스와 폴더블 스마트폰
AR 열풍의 시작 포켓몬고
Made by Google. 픽셀폰의 탄생
타이젠, 그 가혹한 운명의 역사
가장 중요한 건 ‘기본’이다
토종 앱 장터 ‘원스토어’ 납시오
알파고와 구글 홈, 챗 GPT까지
갤럭시 S7의 성공
LG 스마트폰 몰락의 시작. LG G5
Tensorflow로 softmax 구현하기
텐서플로를 이용한 로지스틱 회귀 구현
로지스틱 회귀의 비용함수
numpy와 tensorlow를 이용한 경사 하강법 구현
신경망으로 그림의 스타일 바꾸기
얼굴 인식을 위한 샴 네트워크, 삼중항 손실
IOU, 비최대억제, 앵커 상자. 이를 합한 YOLO 알고리즘
물체를 인식하여 경계 상자 그리기
컴퓨터 비전에서의 전이학습과 데이터 증가
1 x 1 신경망과 인셉션 신경망
합성곱 층을 사용하는 다양한 신경망
컴퓨터 비전을 위한 합성곱
신경망으로 그림의 스타일 바꾸기
얼굴 인식을 위한 샴 네트워크, 삼중항 손실
IOU, 비최대억제, 앵커 상자. 이를 합한 YOLO 알고리즘
물체를 인식하여 경계 상자 그리기
컴퓨터 비전에서의 전이학습과 데이터 증가
1 x 1 신경망과 인셉션 신경망
합성곱 층을 사용하는 다양한 신경망
컴퓨터 비전을 위한 합성곱
numpy와 tensorlow를 이용한 경사 하강법 구현
‘머신러닝을 위한 파이썬’를 수료하며
Dev set과 교차 검증의 다양한 방법들
다양한 경사하강법 방식, 과대적합을 막기 위한 규제
한 개 이상의 특성이 있을 때의 경사 하강법, 모델의 성능 평가하기
경사하강법으로 선형 회귀 구현하기
Basic concept of CNN, Filter, Pooling
keras 전처리 층(StringLookup, Hashing, Embedding, TextVectorization, 사전 훈련된 요소 활용, 이미지 전처리), TFDS
TFRecord 포맷, 프로토콜 버퍼, keras 전처리 층(Normalization, Discretization, CategoryEncoding)
Tensorflow를 사용하여 csv 파일 전처리하기
사용자 정의 훈련 반복, Tensorflow 함수
사용자 정의 층과 모델, tf.GradientTape()를 이용한 후진 자동 미분
Tensorflow 기본 및 사용자 정의 손실 함수, 활성화 함수, 초기화, 규제, 제한, 지표
numpy와 tensorlow를 이용한 경사 하강법 구현
현실에서 잘 작동하는 최단 경로 구하기 가속화 방법들
벨만-포드 알고리즘
DAG 최단경로, 다익스트라 알고리즘
가중치가 있는 최단 경로 문제
깊이 우선 탐색 알고리즘과 그 효용
그래프에서의 너비 우선 탐색 알고리즘
그래프와 최적화 문제. 이를 푸는 DFS와 BFS
단순 선형 회귀 구현하기
딥러닝 프레임워크와 Tensorflow 구현
모멘텀 최적화, RMS prop, Adam 최적화 알고리즘. 그리고 학습률 감쇠와 안장지대까지.
미니 배치 경사하강법과 지수 가중 평균
벡터화를 통한 반복문 없애기
로지스틱 회귀와 경사하강법
신경망을 이용한 XOR 문제 해결, 텐서보드
keras로 신경망 구축하기
이상치 탐지, fine tuning, feature extraction
정규화, 학습률 감쇠
Matrix를 사용하여 선형 회귀 구현하기
tidy 데이터 만들기. 전처리와 시각화의 몇 가지 유용한 팁
seaborn을 사용한 다양한 시각화, 상관 계수 분석과 heatmap 그리기
그룹화하기와 피벗테이블 만들기, 히스토그램과 막대그래프로 시각화하기
시각화의 다양한 방법, 데이터 색인하기, 지도 활용하기
결측치 다루기, 기초 통계량 파악하기, pandas만으로 시각화하기
Pandas로 csv파일 가져오기, 데이터셋 다루기
동적 프로그래밍으로 프로세서의 성능 개선하기
동적 프로그래밍으로 실생활 문제해결
동적 프로그래밍으로 실생활 문제해결
동적 프로그래밍의 일반적 단계와 실생활 문제해결
탐색 트리의 개념과 동적 프로그래밍을 이용해 이를 효율적으로 계산하는 방법
1개의 샘플로 할 수 있는 많은 것들
중심극한정리를 사용하여 ‘경험적인 규칙’을 룰렛에 적용하기. 확률밀도함수의 원리를 적용한 시뮬레이션으로 원주율의 값 구하기.
몬테 카를로 시뮬레이션과 다양한 확률 법칙
랜덤워크를 이용해서 시뮬레이션 모델 검증하고 변형하기
확률과 이를 구하는 강력한 방법인 시뮬레이션 모델
‘머신러닝을 위한 파이썬’를 수료하며
실습 - 비행기 승객 데이터 다루기
결측치 처리, 이산형 데이터 처리, 데이터 스케일링
matplotlib을 통한 데이터 시각화
Pandas의 Groupby, 피벗 테이블, 크로스탭, Merge, Persistence
Pandas의 사용법
Vision Transformer, Hugging Face
Multi-head Attention of transformer, GPT, BERT, DistilBERT, and PaLM
Bidirectional RNN, Beam Search, Attention Mechanism, Transformer
Sentiment Analysis, Encoder-decoder translation
Character(Char)-RNN
Outline of automatic translation utilizing statistical information extraction by using large data
Competition winnig model of ImageNet 2012
Long Sequence: Layer Normalization, LSTM, GRU, 1D Conv Layer, WaveNet
Object Detection, YOLO, Tracking, Semantic Segmentation
Code for ResNet-34, Using Pre-trained Model(+ Transfer learning), and Location Prediction
Various Structures of CNN
Basic concept of CNN, Filter, Pooling
현실에서 잘 작동하는 최단 경로 구하기 가속화 방법들
벨만-포드 알고리즘
DAG 최단경로, 다익스트라 알고리즘
가중치가 있는 최단 경로 문제
Sentiment Analysis, Encoder-decoder translation
Character(Char)-RNN
Long Sequence: Layer Normalization, LSTM, GRU, 1D Conv Layer, WaveNet
RNN Model Building (from data preparation)
Time series with RNN
tidy 데이터 만들기. 전처리와 시각화의 몇 가지 유용한 팁
seaborn을 사용한 다양한 시각화, 상관 계수 분석과 heatmap 그리기
그룹화하기와 피벗테이블 만들기, 히스토그램과 막대그래프로 시각화하기
시각화의 다양한 방법, 데이터 색인하기, 지도 활용하기
베젤리스와 폴더블 스마트폰
타이젠, 그 가혹한 운명의 역사
가장 중요한 건 ‘기본’이다
갤럭시 S7의 성공
Made by Google. 픽셀폰의 탄생
타이젠, 그 가혹한 운명의 역사
토종 앱 장터 ‘원스토어’ 납시오
알파고와 구글 홈, 챗 GPT까지
로지스틱 회귀와 softmax
다중 분류, 다중 레이블 분류, 다중 출력 분류
이항 분류기, 정밀도, 재현율, ROC 곡선
Gaussian Mixture Model
이미지 분할, 준지도 학습, DBSCAN
군집화와 k-means
머신러닝의 정의와 효용. 머신러닝 시스템의 다양한 분류
그래프와 최적화 문제. 이를 푸는 DFS와 BFS
탐색 트리의 개념과 동적 프로그래밍을 이용해 이를 효율적으로 계산하는 방법
간단한 OT, 계산모델, 최적화 모델, 무차별 대입 알고리즘과 탐욕 알고리즘에 대하여
지도학습 마무리 & 통계의 함정
지도학습: k-최근접 분류와 로지스틱 회귀
Made by Google. 픽셀폰의 탄생
갤럭시 S7의 성공
LG 스마트폰 몰락의 시작. LG G5
심층 신경망에서의 정방향 연산과 역방향 연산
얕은 신경망에 벡터화를 이용한 경사하강법 적용하기
벡터화를 통한 반복문 없애기
인간의 성능과 AI 모델
모델 생성에 사용되는 여러 집합, 편향과 분산
인간의 성능과 AI 모델
모델 생성에 사용되는 여러 집합, 편향과 분산
입력 정규화와 경사 검사
과대적합과 과소적합
학습 스케줄링과 특성 스케일링, 잡음 처리
모멘텀 최적화, RMS prop, Adam 최적화 알고리즘. 그리고 학습률 감쇠와 안장지대까지.
오차 원인을 발견했을 때 어떻게 해야 하나
인간의 성능과 AI 모델
개방 주소법과 암호학적 해싱
해시 테이블 크기 조정, 분할상환 분석, 문자열 매칭
딕셔너리와 해싱
개방 주소법과 암호학적 해싱
해시 테이블 크기 조정, 분할상환 분석, 문자열 매칭
딕셔너리와 해싱
현실에서 잘 작동하는 최단 경로 구하기 가속화 방법들
DAG 최단경로, 다익스트라 알고리즘
가중치가 있는 최단 경로 문제
‘MIT 파이썬을 이용한 알고리즘의 이해’를 수료하며
동적 프로그래밍으로 프로세서의 성능 개선하기
다양한 계산 복잡도 문제들
실습 - 유사한 뉴스 선정하기
벡터와 행렬의 연산을 파이썬스럽게 구현하기
‘머신러닝을 위한 파이썬’를 수료하며
실습 - 정규방정식으로 선형 회귀 구현하기
선형 회귀, 비용 함수, 정규 방정식
학습 곡선, Ridge, Lasso, Elasticnet, Early Stopping
다양한 경사하강법 방식, 과대적합을 막기 위한 규제
과대적합과 과소적합
로지스틱 회귀와 softmax
Tensorflow로 softmax 구현하기
그래프와 최적화 문제. 이를 푸는 DFS와 BFS
간단한 OT, 계산모델, 최적화 모델, 무차별 대입 알고리즘과 탐욕 알고리즘에 대하여
시작
‘MIT 데이터 사이언스 기초’를 수료하며
‘파이썬으로 시작하는 데이터 사이언스’를 수료하며
왜 결정계수가 가장 좋은 모델을 선택하면 안되는가
왜 결정계수가 가장 좋은 모델을 선택하면 안되는가
Dev set과 교차 검증의 다양한 방법들
왜 결정계수가 가장 좋은 모델을 선택하면 안되는가
비지도학습: 위계적 군집화와 k-평균 알고리즘
베젤리스와 폴더블 스마트폰
갤럭시 S7의 성공
지도학습 마무리 & 통계의 함정
타이젠, 그 가혹한 운명의 역사
토종 앱 장터 ‘원스토어’ 납시오
모멘텀 최적화, RMS prop, Adam 최적화 알고리즘. 그리고 학습률 감쇠와 안장지대까지.
미니 배치 경사하강법과 지수 가중 평균
힙, 최대 힙, 힙 정렬
삽입 정렬과 병합 정렬
균형 이진 탐색 트리 만들기
이진 탐색 트리(BST)
균형 이진 탐색 트리 만들기
이진 탐색 트리(BST)
균형 이진 탐색 트리 만들기
이진 탐색 트리(BST)
DecisionTree
결정 트리, 선형 시간 정렬
해시 테이블 크기 조정, 분할상환 분석, 문자열 매칭
딕셔너리와 해싱
고정밀 나눗셈과 시간 복잡도
무리수 정밀하게 계산하기, 카탈란 수
고정밀 나눗셈과 시간 복잡도
무리수 정밀하게 계산하기, 카탈란 수
벨만-포드 알고리즘
가중치가 있는 최단 경로 문제
실습 - 유사한 뉴스 선정하기
파이썬스럽게 코드 짜기 - split, join, list comprehension, 람다 함수, map, reduce
벡터와 행렬의 연산을 파이썬스럽게 구현하기
파이썬스럽게 코드 짜기 - Asterisk와 collection 모듈
실습 - 유사한 뉴스 선정하기
벡터와 행렬의 연산을 파이썬스럽게 구현하기
‘머신러닝을 위한 파이썬’를 수료하며
NumPy의 사용법
선형 회귀와 정규방정식, 경사 하강법, 다항 회귀
학습 곡선, Ridge, Lasso, Elasticnet, Early Stopping
머신러닝의 주요 도전 과제, 데이터셋의 구분, 데이터 불일치
학습 곡선, Ridge, Lasso, Elasticnet, Early Stopping
머신러닝의 주요 도전 과제, 데이터셋의 구분, 데이터 불일치
모델 훈련, 평가하고 배포하기
데이터를 가져와서 시각화로 탐색하기까지
다양한 고속 Optimizer, 학습 스케줄링
SVM의 목적 함수와 커널 트릭의 원리
SVM을 사용한 분류와 회귀
AdaBoost, Gradient Boosting, Histogram-based Gradient Boosting, Stacking
앙상블과 랜덤 포레스트
AdaBoost, Gradient Boosting, Histogram-based Gradient Boosting, Stacking
앙상블과 랜덤 포레스트
keras Sequential API
퍼셉트론과 역전파, 다층 퍼셉트론
시작
탐색 트리의 개념과 동적 프로그래밍을 이용해 이를 효율적으로 계산하는 방법
그래프와 최적화 문제. 이를 푸는 DFS와 BFS
그래프와 최적화 문제. 이를 푸는 DFS와 BFS
시각화의 다양한 방법, 데이터 색인하기, 지도 활용하기
랜덤워크를 이용해서 시뮬레이션 모델 검증하고 변형하기
랜덤워크를 이용해서 시뮬레이션 모델 검증하고 변형하기
몬테 카를로 시뮬레이션과 다양한 확률 법칙
몬테 카를로 시뮬레이션과 다양한 확률 법칙
몬테 카를로 시뮬레이션과 다양한 확률 법칙
몬테 카를로 시뮬레이션과 다양한 확률 법칙
몬테 카를로 시뮬레이션과 다양한 확률 법칙
seaborn을 사용한 다양한 시각화, 상관 계수 분석과 heatmap 그리기
seaborn을 사용한 다양한 시각화, 상관 계수 분석과 heatmap 그리기
중심극한정리를 사용하여 ‘경험적인 규칙’을 룰렛에 적용하기. 확률밀도함수의 원리를 적용한 시뮬레이션으로 원주율의 값 구하기.
중심극한정리를 사용하여 ‘경험적인 규칙’을 룰렛에 적용하기. 확률밀도함수의 원리를 적용한 시뮬레이션으로 원주율의 값 구하기.
1개의 샘플로 할 수 있는 많은 것들
1개의 샘플로 할 수 있는 많은 것들
왜 결정계수가 가장 좋은 모델을 선택하면 안되는가
LG 스마트폰 몰락의 시작. LG G5
LG 스마트폰 몰락의 시작. LG G5
갤럭시 S7의 성공
비지도학습: 위계적 군집화와 k-평균 알고리즘
비지도학습: 위계적 군집화와 k-평균 알고리즘
알파고와 구글 홈, 챗 GPT까지
알파고와 구글 홈, 챗 GPT까지
알파고와 구글 홈, 챗 GPT까지
알파고와 구글 홈, 챗 GPT까지
지도학습: k-최근접 분류와 로지스틱 회귀
토종 앱 장터 ‘원스토어’ 납시오
토종 앱 장터 ‘원스토어’ 납시오
토종 앱 장터 ‘원스토어’ 납시오
가장 중요한 건 ‘기본’이다
타이젠, 그 가혹한 운명의 역사
타이젠, 그 가혹한 운명의 역사
타이젠, 그 가혹한 운명의 역사
Made by Google. 픽셀폰의 탄생
얕은 신경망에 벡터화를 이용한 경사하강법 적용하기
AR 열풍의 시작 포켓몬고
베젤리스와 폴더블 스마트폰
입력 정규화와 경사 검사
모멘텀 최적화, RMS prop, Adam 최적화 알고리즘. 그리고 학습률 감쇠와 안장지대까지.
초매개변수의 선택과 관련된 다양한 통찰
딥러닝 프레임워크와 Tensorflow 구현
딥러닝 프레임워크와 Tensorflow 구현
인간의 성능과 AI 모델
인간의 성능과 AI 모델
전이학습과 다중 작업 학습
전이학습과 다중 작업 학습
End-to-end 딥러닝의 개요와 사용 요령
1차원과 2차원에서 극댓값 찾기
1차원과 2차원에서 극댓값 찾기
임의 접근 머신, 포인터 머신과 파이썬에서의 계산 모델, 그리고 문서 거리 문제까지.
삽입 정렬과 병합 정렬
삽입 정렬과 병합 정렬
힙, 최대 힙, 힙 정렬
힙, 최대 힙, 힙 정렬
균형 이진 탐색 트리 만들기
결정 트리, 선형 시간 정렬
결정 트리, 선형 시간 정렬
결정 트리, 선형 시간 정렬
딕셔너리와 해싱
딕셔너리와 해싱
해시 테이블 크기 조정, 분할상환 분석, 문자열 매칭
해시 테이블 크기 조정, 분할상환 분석, 문자열 매칭
개방 주소법과 암호학적 해싱
무리수 정밀하게 계산하기, 카탈란 수
그래프에서의 너비 우선 탐색 알고리즘
깊이 우선 탐색 알고리즘과 그 효용
깊이 우선 탐색 알고리즘과 그 효용
깊이 우선 탐색 알고리즘과 그 효용
깊이 우선 탐색 알고리즘과 그 효용
가중치가 있는 최단 경로 문제
현실에서 잘 작동하는 최단 경로 구하기 가속화 방법들
현실에서 잘 작동하는 최단 경로 구하기 가속화 방법들
다양한 계산 복잡도 문제들
동적 프로그래밍으로 프로세서의 성능 개선하기
파이썬스럽게 코드 짜기 - split, join, list comprehension, 람다 함수, map, reduce
파이썬스럽게 코드 짜기 - split, join, list comprehension, 람다 함수, map, reduce
파이썬스럽게 코드 짜기 - split, join, list comprehension, 람다 함수, map, reduce
파이썬스럽게 코드 짜기 - split, join, list comprehension, 람다 함수, map, reduce
파이썬스럽게 코드 짜기 - split, join, list comprehension, 람다 함수, map, reduce
파이썬스럽게 코드 짜기 - Asterisk와 collection 모듈
파이썬스럽게 코드 짜기 - Asterisk와 collection 모듈
파이썬스럽게 코드 짜기 - Asterisk와 collection 모듈
파이썬스럽게 코드 짜기 - Asterisk와 collection 모듈
파이썬스럽게 코드 짜기 - Asterisk와 collection 모듈
벡터와 행렬의 연산을 파이썬스럽게 구현하기
벡터와 행렬의 연산을 파이썬스럽게 구현하기
결측치 처리, 이산형 데이터 처리, 데이터 스케일링
선형 회귀, 비용 함수, 정규 방정식
머신러닝의 정의와 효용. 머신러닝 시스템의 다양한 분류
머신러닝의 정의와 효용. 머신러닝 시스템의 다양한 분류
머신러닝의 정의와 효용. 머신러닝 시스템의 다양한 분류
머신러닝의 정의와 효용. 머신러닝 시스템의 다양한 분류
머신러닝의 주요 도전 과제, 데이터셋의 구분, 데이터 불일치
numpy와 tensorlow를 이용한 경사 하강법 구현
이항 분류기, 정밀도, 재현율, ROC 곡선
이항 분류기, 정밀도, 재현율, ROC 곡선
이항 분류기, 정밀도, 재현율, ROC 곡선
선형 회귀와 정규방정식, 경사 하강법, 다항 회귀
SVM의 목적 함수와 커널 트릭의 원리
주성분 분석 PCA
군집화와 k-means
군집화와 k-means
퍼셉트론과 역전파, 다층 퍼셉트론
퍼셉트론과 역전파, 다층 퍼셉트론
퍼셉트론과 역전파, 다층 퍼셉트론
Which value or method works well for NN hyperparameters?
An innovative ensemble model that can predict baseball WAR
Convolutional Autoencoder, Denoising Autoencoder, Sparsity Autoencoder, Variational Autoencoder
GAN, DCGAN, ProGAN