목록nvidia (10)
주뇽's 저장소
from tensorflow import keras base_model = keras.applications.VGG16( weights='imagenet', input_shape=(224, 224, 3), include_top= False) # Freeze base model base_model.trainable = False # Create inputs with correct shape inputs = keras.Input(shape=(224, 224, 3)) x = base_model(inputs, training=False) # Add pooling layer or flatten layer x = keras.layers.GlobalAveragePooling2D()(x) # Add fi..
시퀀스 데이터의 예시를 위해 텍스트 문장을 사용한다. 기본적으로 언어는 문자가 모여 단어를 이루고 단어가 모여 문장을 이루는 형식의 시퀀스 데이터로 구성된다. 시퀀스 데이터의 또 다른 예로는 시간에 따른 주가와 날씨 데이터가 있다. RNN 모델을 사용하기 위한 뉴욕타임즈의 헤드라인 데이터만을 로드 import os import pandas as pd nyt_dir = 'data/nyt_dataset/articles/' all_headlines = [] for filename in os.listdir(nyt_dir): if 'Articles' in filename: # Read in all all the data from the CSV file headlines_df = pd...
이전 과정은 미리 학습된 데이터를 사용하기만 하는 과정이였다면 전이학습은 미리학습된 데이터를 가지고 다시 학습을하는 과정이다. 전이 학습은 크고 다양한 데이터세트가 없는 경우에 특히 강력한효과가 있다. 이런 경우에는 처음부터 트레이닝된 모델이 트레이닝 데이터를 빠르게 기억할 가능성이 높지만 새 데이터를 제대로 일반화할 수 없다. 전이 학습을 이용하면 소규모 데이터세트에 대해 정확하고 강력한 모델을 트레이닝할 수 있는 가능성을 높일 수 있다. 특정한 개만 출입이 가능한 자동문 사전학습된 VGG16사용 from tensorflow import keras base_model = keras.applications.VGG16( weights='imagenet', # Load weights pre-trained o..
딥러닝은 데이터 세트를 구하는데 어려움이 많다 이럴때 미리 트레이닝된 모델을 사용하여 이를 해결할 수 있다. 오로지 개만 통과할 수 있는 자동문. 일반적인 VGG16을 이용하여 학습진행 from tensorflow.keras.applications import VGG16 # load the VGG16 network *pre-trained* on the ImageNet dataset model = VGG16(weights="imagenet") model.summary() ### 이미지로드에 필요한 함수 ### import matplotlib.pyplot as plt import matplotlib.image as mpimg def show_image(image_path): image = mpimg.imre..
위 학습에서 만들었던 모델을 배포한다. 저장해두었던 모델을 로드한 후 모델에 대해 확인해본다. from tensorflow import keras model = keras.models.load_model('asl_model') model.summary() 현재 이미지 데이터는 학습에 사용했던 데이터와 크기와 RGB가 다르기때문에 해당 이미지를 학습에 사용했던 데이터와 맞추기 위하여 함수를 만들어 28X28의 흑백 이미지로 변환하다. ### 이미지 확인을 위한 함수정의 ### import matplotlib.pyplot as plt import matplotlib.image as mpimg def show_image(image_path): image = mpimg.imread(image_pa..
이전 학습 결과에서 과적합을 피하는 방법 중 하나로 모델의 아키텍쳐를 바꾸는 방법이 있었다. 뿐만 아니라 과적합을 피하는 방법 중 또다른 하나는 더 많은 데이터를 학습하는 방법이 있다. 기존에 있던 데이터를 증강하기 위하여 데이터 증강에 대한 방법에 대해 알아보자. 데이터 로드 데이터 ,라벨로 분류 24개의 레이블 범주 인코딩 0 ~ 1사이에 부동소수점으로 정규화 3차원 데이터로 reshape import tensorflow.keras as keras import pandas as pd # Load in our data from CSV files train_df = pd.read_csv("/content/sign_mnist_train.csv") valid_df = pd.read_csv("/content/..
이미지 분류에 자주 사용되는 CNN모델에 대해 학습 수화이미지에서 사용하였던 방법과 마찬가지이다. pandas를 이용하여 데이터 로드 라벨값 분류 학습,검증 데이터값 분류 24개의 범주 레이블 0 ~ 1사이에 값으로 정규화 위 과정을 마치고 확인해보면 아까와 마찬가지로 학습데이터 27455장의 784 1차원 학습 데이터, 7172장의 784 1차원 검증데이터로 되어있다. import tensorflow.keras as keras import pandas as pd # Load in our data from CSV files train_df = pd.read_csv("/content/sign_mnist_train.csv") valid_df = pd.read_csv("/content/sign_mnist_va..
캐글에서 제공해주는 미국 수화 데이터세트를 이용하여 모델을 트레이닝한다 csv파일을 로드하기위해서 pands 라이브러리를 이용한 후 각각의 데이터들의 값들을 확인해보면 각 label값 이미지의 픽셀값을 나타내고있다. 학습 데이터라벨과 검증 데이터 라벨의 값을 가져온 뒤 삭제해주고 학습 데이터와 검증 데이터의 값을 넣어준다. 이후 확인해보면 트레이닝을 위한 각각 784개 픽셀을 포함하는 27,455개의 이미지와 검증을 위해서는 7,172개의 이미지와 라벨이 있는걸 확인 할 수 있다. [https://www.kaggle.com/code/emilyjiminroh/cnn-sign-language-mnist-eng-kor/data] import pandas as pd train_df = pd.read_csv("/..