728x90
반응형

딥러닝 (Deep Learning)/tensorflow, keras 6

[tensorflow, keras] 딥러닝 기본 코드(2-3,4) 모델 컴파일(손실함수, 최적화, 지표), 모델 학습 평가 예측

[youtube] Deep Learning Full Tutorial Course using TensorFlow and Keras - 이수안컴퓨터연구소 참고 🧡목차 딥러닝 구조 및 학습 2. 모델(Model) 3) 모델 컴파일 - 손실함수(loss function) - 최적화(optimization) - 지표(metrics) 4) 모델 학습, 평가 및 예측 - fit() - evaluate() - predict() 딥러닝 구조 및 학습 딥러닝 구조와 학습에 필요한 요소 모델(네트워크)를 구성하는 레이어(layer) 입력 데이터와 그에 대한 목적(결과) 학습시에 사용할 피드백을 정의하는 손실 함수(loss function) 학습 진행 방식을 결정하는 옵티마이저(optimizer) 2. 모델(Model) 딥러..

[tensorflow, keras] 딥러닝 기본 코드(2-2) 모델 가중치 확인

[youtube] Deep Learning Full Tutorial Course using TensorFlow and Keras - 이수안컴퓨터연구소 참고 🧡목차 딥러닝 구조 및 학습 2. 모델(Model) 2) 모델 가중치 확인 딥러닝 구조 및 학습 딥러닝 구조와 학습에 필요한 요소 모델(네트워크)를 구성하는 레이어(layer) 입력 데이터와 그에 대한 목적(결과) 학습시에 사용할 피드백을 정의하는 손실 함수(loss function) 학습 진행 방식을 결정하는 옵티마이저(optimizer) 2. 모델(Model) 딥러닝 모델은 레이어로 만들어진 비순환 유향 그래프(Directed Acyclic Graph, DAG) 구조 2) 모델 가중치 확인 - 모델 제작 inputs = Input(shape=(28..

[tensorflow, keras] 딥러닝 기본 코드(2-1) 모델의 구성(Sequential, API함수, 서브클래싱)

[youtube] Deep Learning Full Tutorial Course using TensorFlow and Keras - 이수안컴퓨터연구소 참고 🧡목차 딥러닝 구조 및 학습 2. 모델(Model) 1) 딥러닝모델을 구성하는 3가지 방법 - Sequential - API함수 - 서브클래싱(Subclassing) 딥러닝 구조 및 학습 딥러닝 구조와 학습에 필요한 요소 모델(네트워크)를 구성하는 레이어(layer) 입력 데이터와 그에 대한 목적(결과) 학습시에 사용할 피드백을 정의하는 손실 함수(loss function) 학습 진행 방식을 결정하는 옵티마이저(optimizer) 2. 모델(Model) 딥러닝 모델은 레이어로 만들어진 비순환 유향 그래프(Directed Acyclic Graph, DA..

[tensorflow, keras] 딥러닝 기본 코드(1) - Layer(Dense, Activation, Flatten, Input)

[youtube] Deep Learning Full Tutorial Course using TensorFlow and Keras - 이수안컴퓨터연구소 참고 🧡목차 딥러닝 구조 및 학습 1. 레이어 - dense - activation - flatten - input 딥러닝 구조 및 학습 딥러닝 구조와 학습에 필요한 요소 모델(네트워크)를 구성하는 레이어(layer) 입력 데이터와 그에 대한 목적(결과) 학습시에 사용할 피드백을 정의하는 손실 함수(loss function) 학습 진행 방식을 결정하는 옵티마이저(optimizer) 1. 레이어(Layer) 신경망의 핵심 데이터 구조 하나 이상의 텐서를 입력받아 하나 이상의 텐서를 출력하는 데이터 처리 모듈 상태가 없는 레이어도 있지만, 대부분 가중치(wei..

[tensorflow] 텐서 기본코드

1. 기본 텐서 만들기 - constant - rank import numpy as np import tensorflow as tf #0D TENSOR(스칼라) t0 = tf.constant(1) print(t0) print(tf.rank(t0)) #1D TENSOR(벡터) t1 = tf.constant([1,2,3]) print(t1) print(tf.rank(t1)) #2D TENSOR(행렬) t2 = tf.constant([[1,2,3], [4,5,6], [7,8,9]]) print(t2) print(tf.rank(t2)) #3D TENSOR - 연속시퀀스, 시계열데이터 t3 = tf.constant([[[1,2,3], [4,5,6], [7,8,9]], [[1,2,3], [4,5,6], [7,8,9..

728x90
반응형