본문 바로가기

전체 글52

Generative Adversarial Network < GAN > AutoEncoder --> auto는 자동이 아니라, self 스스로 라는 의미가 큼 Autoencoder의 목적은, generator를 하는 게 아니라 복구를 하는 것이다. 기본적으로 Latent Space를 학습시키는 것이기 때문에 원래 Data를 decoder 하기 위해서 'encoder를 학습시키는 것.' 특징들이 모여있는 공간이 (Latent) Vector임. 결국. 학습된 Parameter들이 중요한 것임. cf. Variational Auto Encoder ==> 변분 혹은 변이 Autoencoder ∴ VAE VAE의 목적은 원래 없었던 값을 Generator (학습) 시키는 것. (복구시키는 것이 아님!) 정규분포(가우시안 확률분포 값) 사용하는데, 평균과 분산으로 Vector를 만들기.. 2023. 2. 7.
DT Digital Transformation직무 데이터 분석가/애널리스트(**보고, 제안) - 데이터 분석, 처리 및 비즈니스에 유의미한 결과 창출 - 분석 도구를 활용해서 데이터 보고서 설계 및 작성 데이터 사이언티스트 (**예측모델 학습) - 과거 패턴으로부터 미래 예측 - 미즈니스에 여러 알고리즘을 적용시켜 새로운 분석 모델 및 머신러닝 모델 수정/개발 데이터 엔지니어 (**데이터 수집) - 데이터 웨어하우스, 데이터베이스 구축 및 관리 - 데이터 파이프라인 구축 - SQL 튜닝 - 대용량/실시간 시스템 개발(Hadoop, Spark) 2023. 2. 7.
Recurrent Neural Network ; RNN Recurrent Neural Network 순환과 관련된 것 : 시간과 관련되어 있다. ex, 구글 검색창에 앞 단어만 입력해도 자동입력 되는 거 이전의 기억 : short_term_memory 직전의 기억을 얼만큼 적용할 지 학습시키는 것. DNN 구조에다가 직전 처리 구조만 더하기로 RNN과 RNN 연결 RNN을 2번 쓰고 싶을 때 Stacked_SimpleRNN 사용 return_sequences = True #Stacked, 쌓아놓으려면 return_sequenced = True여야함. Hidden State로 출력을 내보내겠다. #마지막엔 False로 하나로 내보내도록 함. LSTM - Input Gate 과거 정보에 새로운 정보(Dogs)를 추가하는 기능 g 중요도 : tanh i 반영비율 .. 2023. 2. 2.
CNN Animal(Dogs and Cats) Categorical GPU 강아지, 고양이만 2개 분류하는 것보다 강아지, 고양이 + 닭, 소 ~ 10개 같이 분류하는 것에 문제점. from tensorflow.keras import layers from tensorflow.keras import models model = models.Sequential() model.add(layers.Conv2D(128, (3, 3), activation = 'relu', input_shape = (150, 150, 3))) model.add(layers.MaxPooling2D((2, 2))) model.add(layers.Conv2D(64, (3, 3), activation = 'relu')) model.add(layers.MaxPooling2D((2, 2))) model.add(laye.. 2023. 1. 31.