کمک به حفاظت از دیواره بزرگ مرجانی با TensorFlow در Kaggle اضافه کردن چالش

داده های ساخت یافته را با ستون های ویژگی طبقه بندی کنید

مشاهده در TensorFlow.org در Google Colab اجرا شود مشاهده منبع در GitHub دانلود دفترچه یادداشت

این آموزش نحوه طبقه بندی داده های ساخت یافته را نشان می دهد (به عنوان مثال داده های جدولی در یک CSV). ما از Keras برای تعریف مدل و tf.feature_column به عنوان پلی برای نگاشت از ستون‌ها در CSV به ویژگی‌های مورد استفاده برای آموزش مدل استفاده خواهیم کرد. این آموزش حاوی کد کاملی است برای:

  • یک فایل CSV را با استفاده از Pandas بارگیری کنید.
  • یک خط لوله ورودی بسازید تا ردیف ها را با استفاده از tf.data دسته بندی کرده و به هم بزنید.
  • از ستون‌ها در CSV به ویژگی‌های مورد استفاده برای آموزش مدل با استفاده از ستون‌های ویژگی نقشه برداری کنید.
  • با استفاده از Keras یک مدل بسازید، آموزش دهید و ارزیابی کنید.

مجموعه داده

ما از نسخه ساده شده مجموعه داده PetFinder استفاده خواهیم کرد. چندین هزار ردیف در CSV وجود دارد. هر ردیف یک حیوان خانگی را توصیف می کند و هر ستون یک ویژگی را توصیف می کند. ما از این اطلاعات برای پیش بینی سرعت پذیرش حیوان خانگی استفاده خواهیم کرد.

در ادامه توضیحاتی درباره این مجموعه داده ارائه شده است. توجه داشته باشید که هر دو ستون عددی و دسته بندی وجود دارد. یک ستون متن آزاد وجود دارد که در این آموزش از آن استفاده نمی کنیم.

ستون شرح نوع ویژگی نوع داده
تایپ کنید نوع حیوان (سگ، گربه) دسته بندی رشته
سن سن حیوان خانگی عددی عدد صحیح
نژاد 1 نژاد اولیه حیوان خانگی دسته بندی رشته
رنگ 1 رنگ 1 حیوان خانگی دسته بندی رشته
رنگ 2 رنگ 2 حیوان خانگی دسته بندی رشته
MaturitySize اندازه در بلوغ دسته بندی رشته
FurLength طول خز دسته بندی رشته
واکسینه شده حیوان خانگی واکسینه شده است دسته بندی رشته
استریل شده حیوان خانگی عقیم شده است دسته بندی رشته
سلامتی وضعیت سلامتی دسته بندی رشته
هزینه هزینه پذیرش عددی عدد صحیح
شرح نوشتن مشخصات این حیوان خانگی متن رشته
PhotoAmt مجموع عکس های آپلود شده برای این حیوان خانگی عددی عدد صحیح
سرعت پذیرش سرعت پذیرش طبقه بندی عدد صحیح

TensorFlow و کتابخانه های دیگر را وارد کنید

pip install sklearn
import numpy as np
import pandas as pd

import tensorflow as tf

from tensorflow import feature_column
from tensorflow.keras import layers
from sklearn.model_selection import train_test_split

از پانداها برای ایجاد یک دیتافریم استفاده کنید

Pandas یک کتابخانه پایتون با بسیاری از ابزارهای مفید برای بارگیری و کار با داده های ساخت یافته است. ما از Pandas برای دانلود مجموعه داده از یک URL، و بارگذاری آن در یک دیتافریم استفاده خواهیم کرد.

import pathlib

dataset_url = 'http://storage.googleapis.com/download.tensorflow.org/data/petfinder-mini.zip'
csv_file = 'datasets/petfinder-mini/petfinder-mini.csv'

tf.keras.utils.get_file('petfinder_mini.zip', dataset_url,
                        extract=True, cache_dir='.')
dataframe = pd.read_csv(csv_file)
Downloading data from http://storage.googleapis.com/download.tensorflow.org/data/petfinder-mini.zip
1671168/1668792 [==============================] - 0s 0us/step
1679360/1668792 [==============================] - 0s 0us/step
dataframe.head()

ایجاد متغیر هدف

وظیفه در مجموعه داده اصلی پیش بینی سرعت پذیرش حیوان خانگی است (به عنوان مثال، در هفته اول، ماه اول، سه ماه اول و غیره). بیایید این را برای آموزش خود ساده کنیم. در اینجا، ما این مسئله را به یک مشکل طبقه‌بندی باینری تبدیل می‌کنیم و به سادگی پیش‌بینی می‌کنیم که آیا حیوان خانگی پذیرفته شده است یا خیر.

پس از اصلاح ستون برچسب، 0 نشان می دهد که حیوان خانگی پذیرفته نشده است، و 1 نشان می دهد که حیوان خانگی پذیرفته نشده است.

# In the original dataset "4" indicates the pet was not adopted.
dataframe['target'] = np.where(dataframe['AdoptionSpeed']==4, 0, 1)

# Drop un-used columns.
dataframe = dataframe.drop(columns=['AdoptionSpeed', 'Description'])

چارچوب داده را به قطار، اعتبارسنجی و تست تقسیم کنید

مجموعه داده ای که دانلود کردیم یک فایل CSV بود. ما این را به مجموعه‌های قطار، اعتبارسنجی و آزمایش تقسیم می‌کنیم.

train, test = train_test_split(dataframe, test_size=0.2)
train, val = train_test_split(train, test_size=0.2)
print(len(train), 'train examples')
print(len(val), 'validation examples')
print(len(test), 'test examples')
7383 train examples
1846 validation examples
2308 test examples

با استفاده از tf.data یک خط لوله ورودی ایجاد کنید

در مرحله بعد، دیتافریم ها را با tf.data قرار می دهیم. این ما را قادر می‌سازد تا از ستون‌های ویژگی به‌عنوان پلی برای نگاشت از ستون‌ها در چارچوب داده پاندا به ویژگی‌های مورد استفاده برای آموزش مدل استفاده کنیم. اگر با یک فایل CSV بسیار بزرگ کار می کردیم (بقدری بزرگ که در حافظه جا نمی شود)، از tf.data برای خواندن مستقیم آن از دیسک استفاده می کردیم. که در این آموزش پوشش داده نشده است.

# A utility method to create a tf.data dataset from a Pandas Dataframe
def df_to_dataset(dataframe, shuffle=True, batch_size=32):
  dataframe = dataframe.copy()
  labels = dataframe.pop('target')
  ds = tf.data.Dataset.from_tensor_slices((dict(dataframe), labels))
  if shuffle:
    ds = ds.shuffle(buffer_size=len(dataframe))
  ds = ds.batch(batch_size)
  return ds
batch_size = 5 # A small batch sized is used for demonstration purposes
train_ds = df_to_dataset(train, batch_size=batch_size)
val_ds = df_to_dataset(val, shuffle=False, batch_size=batch_size)
test_ds = df_to_dataset(test, shuffle=False, batch_size=batch_size)
2021-08-12 05:35:14.232343: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:937] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2021-08-12 05:35:14.240910: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:937] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2021-08-12 05:35:14.241897: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:937] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2021-08-12 05:35:14.244078: I tensorflow/core/platform/cpu_feature_guard.cc:142] This TensorFlow binary is optimized with oneAPI Deep Neural Network Library (oneDNN) to use the following CPU instructions in performance-critical operations:  AVX2 AVX512F FMA
To enable them in other operations, rebuild TensorFlow with the appropriate compiler flags.
2021-08-12 05:35:14.244713: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:937] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2021-08-12 05:35:14.245783: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:937] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2021-08-12 05:35:14.246715: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:937] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2021-08-12 05:35:14.858272: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:937] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2021-08-12 05:35:14.859347: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:937] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2021-08-12 05:35:14.860347: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:937] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero
2021-08-12 05:35:14.861291: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1510] Created device /job:localhost/replica:0/task:0/device:GPU:0 with 14648 MB memory:  -> device: 0, name: Tesla V100-SXM2-16GB, pci bus id: 0000:00:05.0, compute capability: 7.0

خط لوله ورودی را درک کنید

اکنون که خط لوله ورودی را ایجاد کرده ایم، بیایید آن را فراخوانی کنیم تا فرمت داده هایی را که برمی گرداند ببینیم. ما از یک اندازه دسته کوچک برای خوانا نگه داشتن خروجی استفاده کرده ایم.

for feature_batch, label_batch in train_ds.take(1):
  print('Every feature:', list(feature_batch.keys()))
  print('A batch of ages:', feature_batch['Age'])
  print('A batch of targets:', label_batch )
Every feature: ['Type', 'Age', 'Breed1', 'Gender', 'Color1', 'Color2', 'MaturitySize', 'FurLength', 'Vaccinated', 'Sterilized', 'Health', 'Fee', 'PhotoAmt']
A batch of ages: tf.Tensor([3 1 7 3 2], shape=(5,), dtype=int64)
A batch of targets: tf.Tensor([0 0 0 1 1], shape=(5,), dtype=int64)

می‌توانیم ببینیم که مجموعه داده یک فرهنگ لغت از نام ستون‌ها (از قاب داده) را برمی‌گرداند که مقادیر ستون‌ها را از ردیف‌هایی در قاب داده نشان می‌دهد.

چندین نوع ستون ویژگی را نشان دهید

TensorFlow انواع مختلفی از ستون های ویژگی را ارائه می دهد. در این بخش، انواع مختلفی از ستون‌های ویژگی ایجاد می‌کنیم و نشان می‌دهیم که چگونه یک ستون را از چارچوب داده تغییر می‌دهند.

# We will use this batch to demonstrate several types of feature columns
example_batch = next(iter(train_ds))[0]
# A utility method to create a feature column
# and to transform a batch of data
def demo(feature_column):
  feature_layer = layers.DenseFeatures(feature_column)
  print(feature_layer(example_batch).numpy())

ستون های عددی

خروجی یک ستون ویژگی به ورودی مدل تبدیل می شود (با استفاده از تابع نمایشی که در بالا تعریف شده است، می توانیم دقیقاً ببینیم که هر ستون از چارچوب داده چگونه تبدیل می شود). ستون عددی ساده ترین نوع ستون است. برای نشان دادن ویژگی های با ارزش واقعی استفاده می شود. هنگام استفاده از این ستون، مدل شما مقدار ستون را بدون تغییر از چارچوب داده دریافت می کند.

photo_count = feature_column.numeric_column('PhotoAmt')
demo(photo_count)
[[1.]
 [1.]
 [6.]
 [2.]
 [1.]]

در مجموعه داده PetFinder، بیشتر ستون‌های چارچوب داده طبقه‌بندی می‌شوند.

ستون های سطلی

اغلب، شما نمی خواهید یک عدد را مستقیماً به مدل وارد کنید، بلکه مقدار آن را بر اساس محدوده های عددی به دسته های مختلف تقسیم کنید. داده های خامی را در نظر بگیرید که نشان دهنده سن افراد است. به جای نمایش سن به عنوان یک ستون عددی، می‌توانیم با استفاده از یک ستون سطلی ، سن را به چند سطل تقسیم کنیم. به مقادیر تک داغ زیر توجه کنید که هر ردیف با کدام محدوده سنی مطابقت دارد.

age = feature_column.numeric_column('Age')
age_buckets = feature_column.bucketized_column(age, boundaries=[1, 3, 5])
demo(age_buckets)
[[0. 0. 0. 1.]
 [0. 1. 0. 0.]
 [0. 0. 0. 1.]
 [0. 0. 0. 1.]
 [0. 0. 0. 1.]]

ستون های طبقه بندی شده

در این مجموعه داده، Type به عنوان یک رشته نمایش داده می شود (به عنوان مثال 'سگ'، یا 'گربه'). ما نمی توانیم رشته ها را مستقیماً به یک مدل تغذیه کنیم. در عوض، ابتدا باید آنها را به مقادیر عددی نگاشت کنیم. ستون‌های واژگان طبقه‌بندی راهی برای نمایش رشته‌ها به‌عنوان یک بردار یک‌طرف ارائه می‌کنند (مثلاً مانند آنچه در بالا با سطل‌های سنی دیده‌اید). واژگان را می توان به عنوان یک لیست با استفاده از categorical_column_with_vocabulary_list منتقل کرد، یا از یک فایل با استفاده از categorical_column_with_vocabulary_file بارگیری کرد.

animal_type = feature_column.categorical_column_with_vocabulary_list(
      'Type', ['Cat', 'Dog'])

animal_type_one_hot = feature_column.indicator_column(animal_type)
demo(animal_type_one_hot)
[[0. 1.]
 [1. 0.]
 [1. 0.]
 [1. 0.]
 [0. 1.]]

تعبیه ستون ها

فرض کنید به جای داشتن چند رشته ممکن، هزاران (یا بیشتر) مقدار در هر دسته داریم. بنا به دلایلی، با افزایش تعداد دسته‌ها، آموزش شبکه عصبی با استفاده از رمزگذاری‌های تک داغ غیرممکن می‌شود. برای غلبه بر این محدودیت می توانیم از یک ستون جاسازی استفاده کنیم. به جای نمایش داده‌ها به‌عنوان یک بردار یک‌جانبه با ابعاد مختلف، یک ستون تعبیه‌شده آن داده‌ها را به‌عنوان یک بردار کم‌بعد و متراکم نشان می‌دهد که در آن هر سلول می‌تواند شامل هر عددی باشد، نه فقط 0 یا 1. اندازه جاسازی ( 8، در مثال زیر) پارامتری است که باید تنظیم شود.

# Notice the input to the embedding column is the categorical column
# we previously created
breed1 = feature_column.categorical_column_with_vocabulary_list(
      'Breed1', dataframe.Breed1.unique())
breed1_embedding = feature_column.embedding_column(breed1, dimension=8)
demo(breed1_embedding)
[[-0.29149556  0.14527628 -0.14971544 -0.03371305 -0.18008554 -0.1355874
   0.07782566 -0.25116035]
 [ 0.17409092 -0.5352956   0.17639622  0.14120959  0.06684854 -0.1125162
  -0.29759833  0.13288419]
 [-0.54347     0.12352454  0.2705486   0.38947123  0.03339173 -0.00610726
  -0.07117687 -0.01907084]
 [ 0.42062348  0.62146646 -0.16005716  0.08512937  0.19332875  0.24204789
  -0.03377973  0.47258624]
 [ 0.06813324  0.28805184  0.02640903 -0.05147618  0.6982352  -0.06342584
  -0.1650086  -0.06650425]]

ستون های ویژگی هش شده

راه دیگر برای نشان دادن یک ستون دسته بندی با تعداد زیادی مقادیر، استفاده از categorical_column_with_hash_bucket است. این ستون ویژگی یک مقدار هش ورودی را محاسبه می کند، سپس یکی از سطل های hash_bucket_size را برای رمزگذاری رشته انتخاب می کند. هنگام استفاده از این ستون، نیازی به ارائه واژگان ندارید، و می توانید برای صرفه جویی در فضا، تعداد hash_buckets را به میزان قابل توجهی از تعداد دسته های واقعی کوچکتر کنید.

breed1_hashed = feature_column.categorical_column_with_hash_bucket(
      'Breed1', hash_bucket_size=10)
demo(feature_column.indicator_column(breed1_hashed))
[[1. 0. 0. 0. 0. 0. 0. 0. 0. 0.]
 [0. 0. 0. 0. 1. 0. 0. 0. 0. 0.]
 [0. 0. 0. 0. 1. 0. 0. 0. 0. 0.]
 [0. 0. 0. 1. 0. 0. 0. 0. 0. 0.]
 [1. 0. 0. 0. 0. 0. 0. 0. 0. 0.]]

ستون های ویژگی متقاطع

ترکیب ویژگی‌ها در یک ویژگی واحد، که بیشتر به عنوان تلاقی ویژگی‌ها شناخته می‌شود، یک مدل را قادر می‌سازد تا وزن‌های جداگانه برای هر ترکیبی از ویژگی‌ها را یاد بگیرد. در اینجا، ما یک ویژگی جدید ایجاد خواهیم کرد که متقاطع سن و نوع است. توجه داشته باشید که crossed_column جدول کامل همه ترکیب‌های ممکن را (که می‌تواند بسیار بزرگ باشد) نمی‌سازد. در عوض، توسط یک hashed_column ، بنابراین می‌توانید انتخاب کنید که جدول چقدر بزرگ باشد.

crossed_feature = feature_column.crossed_column([age_buckets, animal_type], hash_bucket_size=10)
demo(feature_column.indicator_column(crossed_feature))
[[0. 0. 0. 0. 0. 0. 0. 0. 1. 0.]
 [0. 0. 0. 1. 0. 0. 0. 0. 0. 0.]
 [1. 0. 0. 0. 0. 0. 0. 0. 0. 0.]
 [1. 0. 0. 0. 0. 0. 0. 0. 0. 0.]
 [0. 0. 0. 0. 0. 0. 0. 0. 1. 0.]]

انتخاب کنید از کدام ستون استفاده کنید

ما نحوه استفاده از چندین نوع ستون ویژگی را دیده ایم. اکنون از آنها برای آموزش یک مدل استفاده خواهیم کرد. هدف از این آموزش این است که کد کامل (مثلاً مکانیک) مورد نیاز برای کار با ستون های ویژگی را به شما نشان دهد. ما چند ستون را برای آموزش مدل خود در زیر به صورت دلخواه انتخاب کرده ایم.

feature_columns = []

# numeric cols
for header in ['PhotoAmt', 'Fee', 'Age']:
  feature_columns.append(feature_column.numeric_column(header))
# bucketized cols
age = feature_column.numeric_column('Age')
age_buckets = feature_column.bucketized_column(age, boundaries=[1, 2, 3, 4, 5])
feature_columns.append(age_buckets)
# indicator_columns
indicator_column_names = ['Type', 'Color1', 'Color2', 'Gender', 'MaturitySize',
                          'FurLength', 'Vaccinated', 'Sterilized', 'Health']
for col_name in indicator_column_names:
  categorical_column = feature_column.categorical_column_with_vocabulary_list(
      col_name, dataframe[col_name].unique())
  indicator_column = feature_column.indicator_column(categorical_column)
  feature_columns.append(indicator_column)
# embedding columns
breed1 = feature_column.categorical_column_with_vocabulary_list(
      'Breed1', dataframe.Breed1.unique())
breed1_embedding = feature_column.embedding_column(breed1, dimension=8)
feature_columns.append(breed1_embedding)
# crossed columns
age_type_feature = feature_column.crossed_column([age_buckets, animal_type], hash_bucket_size=100)
feature_columns.append(feature_column.indicator_column(age_type_feature))

یک لایه ویژگی ایجاد کنید

اکنون که ستون های ویژگی خود را تعریف کرده ایم، از یک لایه DenseFeatures برای وارد کردن آنها به مدل Keras خود استفاده می کنیم.

feature_layer = tf.keras.layers.DenseFeatures(feature_columns)

پیش از این، ما از یک اندازه دسته کوچک برای نشان دادن نحوه عملکرد ستون های ویژگی استفاده می کردیم. ما یک خط لوله ورودی جدید با اندازه دسته بزرگتر ایجاد می کنیم.

batch_size = 32
train_ds = df_to_dataset(train, batch_size=batch_size)
val_ds = df_to_dataset(val, shuffle=False, batch_size=batch_size)
test_ds = df_to_dataset(test, shuffle=False, batch_size=batch_size)

مدل را ایجاد، کامپایل و آموزش دهید

model = tf.keras.Sequential([
  feature_layer,
  layers.Dense(128, activation='relu'),
  layers.Dense(128, activation='relu'),
  layers.Dropout(.1),
  layers.Dense(1)
])

model.compile(optimizer='adam',
              loss=tf.keras.losses.BinaryCrossentropy(from_logits=True),
              metrics=['accuracy'])

model.fit(train_ds,
          validation_data=val_ds,
          epochs=10)
Epoch 1/10
WARNING:tensorflow:Layers in a Sequential model should only have a single input tensor, but we receive a <class 'dict'> input: {'Type': <tf.Tensor 'ExpandDims_11:0' shape=(None, 1) dtype=string>, 'Age': <tf.Tensor 'ExpandDims:0' shape=(None, 1) dtype=int64>, 'Breed1': <tf.Tensor 'ExpandDims_1:0' shape=(None, 1) dtype=string>, 'Gender': <tf.Tensor 'ExpandDims_6:0' shape=(None, 1) dtype=string>, 'Color1': <tf.Tensor 'ExpandDims_2:0' shape=(None, 1) dtype=string>, 'Color2': <tf.Tensor 'ExpandDims_3:0' shape=(None, 1) dtype=string>, 'MaturitySize': <tf.Tensor 'ExpandDims_8:0' shape=(None, 1) dtype=string>, 'FurLength': <tf.Tensor 'ExpandDims_5:0' shape=(None, 1) dtype=string>, 'Vaccinated': <tf.Tensor 'ExpandDims_12:0' shape=(None, 1) dtype=string>, 'Sterilized': <tf.Tensor 'ExpandDims_10:0' shape=(None, 1) dtype=string>, 'Health': <tf.Tensor 'ExpandDims_7:0' shape=(None, 1) dtype=string>, 'Fee': <tf.Tensor 'ExpandDims_4:0' shape=(None, 1) dtype=int64>, 'PhotoAmt': <tf.Tensor 'ExpandDims_9:0' shape=(None, 1) dtype=int64>}
Consider rewriting this model with the Functional API.
WARNING:tensorflow:Layers in a Sequential model should only have a single input tensor, but we receive a <class 'dict'> input: {'Type': <tf.Tensor 'ExpandDims_11:0' shape=(None, 1) dtype=string>, 'Age': <tf.Tensor 'ExpandDims:0' shape=(None, 1) dtype=int64>, 'Breed1': <tf.Tensor 'ExpandDims_1:0' shape=(None, 1) dtype=string>, 'Gender': <tf.Tensor 'ExpandDims_6:0' shape=(None, 1) dtype=string>, 'Color1': <tf.Tensor 'ExpandDims_2:0' shape=(None, 1) dtype=string>, 'Color2': <tf.Tensor 'ExpandDims_3:0' shape=(None, 1) dtype=string>, 'MaturitySize': <tf.Tensor 'ExpandDims_8:0' shape=(None, 1) dtype=string>, 'FurLength': <tf.Tensor 'ExpandDims_5:0' shape=(None, 1) dtype=string>, 'Vaccinated': <tf.Tensor 'ExpandDims_12:0' shape=(None, 1) dtype=string>, 'Sterilized': <tf.Tensor 'ExpandDims_10:0' shape=(None, 1) dtype=string>, 'Health': <tf.Tensor 'ExpandDims_7:0' shape=(None, 1) dtype=string>, 'Fee': <tf.Tensor 'ExpandDims_4:0' shape=(None, 1) dtype=int64>, 'PhotoAmt': <tf.Tensor 'ExpandDims_9:0' shape=(None, 1) dtype=int64>}
Consider rewriting this model with the Functional API.
2021-08-12 05:35:16.625423: I tensorflow/compiler/mlir/mlir_graph_optimization_pass.cc:185] None of the MLIR Optimization Passes are enabled (registered 2)
225/231 [============================>.] - ETA: 0s - loss: 0.6541 - accuracy: 0.6914WARNING:tensorflow:Layers in a Sequential model should only have a single input tensor, but we receive a <class 'dict'> input: {'Type': <tf.Tensor 'ExpandDims_11:0' shape=(None, 1) dtype=string>, 'Age': <tf.Tensor 'ExpandDims:0' shape=(None, 1) dtype=int64>, 'Breed1': <tf.Tensor 'ExpandDims_1:0' shape=(None, 1) dtype=string>, 'Gender': <tf.Tensor 'ExpandDims_6:0' shape=(None, 1) dtype=string>, 'Color1': <tf.Tensor 'ExpandDims_2:0' shape=(None, 1) dtype=string>, 'Color2': <tf.Tensor 'ExpandDims_3:0' shape=(None, 1) dtype=string>, 'MaturitySize': <tf.Tensor 'ExpandDims_8:0' shape=(None, 1) dtype=string>, 'FurLength': <tf.Tensor 'ExpandDims_5:0' shape=(None, 1) dtype=string>, 'Vaccinated': <tf.Tensor 'ExpandDims_12:0' shape=(None, 1) dtype=string>, 'Sterilized': <tf.Tensor 'ExpandDims_10:0' shape=(None, 1) dtype=string>, 'Health': <tf.Tensor 'ExpandDims_7:0' shape=(None, 1) dtype=string>, 'Fee': <tf.Tensor 'ExpandDims_4:0' shape=(None, 1) dtype=int64>, 'PhotoAmt': <tf.Tensor 'ExpandDims_9:0' shape=(None, 1) dtype=int64>}
Consider rewriting this model with the Functional API.
231/231 [==============================] - 4s 11ms/step - loss: 0.6513 - accuracy: 0.6929 - val_loss: 0.5530 - val_accuracy: 0.7172
Epoch 2/10
231/231 [==============================] - 2s 9ms/step - loss: 0.5726 - accuracy: 0.7142 - val_loss: 0.5061 - val_accuracy: 0.7481
Epoch 3/10
231/231 [==============================] - 2s 10ms/step - loss: 0.5145 - accuracy: 0.7249 - val_loss: 0.5066 - val_accuracy: 0.7557
Epoch 4/10
231/231 [==============================] - 2s 10ms/step - loss: 0.5018 - accuracy: 0.7345 - val_loss: 0.4926 - val_accuracy: 0.7405
Epoch 5/10
231/231 [==============================] - 2s 9ms/step - loss: 0.4950 - accuracy: 0.7332 - val_loss: 0.4997 - val_accuracy: 0.7600
Epoch 6/10
231/231 [==============================] - 2s 9ms/step - loss: 0.4852 - accuracy: 0.7425 - val_loss: 0.4907 - val_accuracy: 0.7443
Epoch 7/10
231/231 [==============================] - 2s 9ms/step - loss: 0.4791 - accuracy: 0.7436 - val_loss: 0.4965 - val_accuracy: 0.7411
Epoch 8/10
231/231 [==============================] - 2s 9ms/step - loss: 0.4779 - accuracy: 0.7471 - val_loss: 0.4956 - val_accuracy: 0.7356
Epoch 9/10
231/231 [==============================] - 2s 9ms/step - loss: 0.4700 - accuracy: 0.7479 - val_loss: 0.4910 - val_accuracy: 0.7394
Epoch 10/10
231/231 [==============================] - 2s 9ms/step - loss: 0.4621 - accuracy: 0.7528 - val_loss: 0.5080 - val_accuracy: 0.7248
<keras.callbacks.History at 0x7f4a784c4d90>
loss, accuracy = model.evaluate(test_ds)
print("Accuracy", accuracy)
73/73 [==============================] - 0s 6ms/step - loss: 0.5444 - accuracy: 0.6919
Accuracy 0.6919410824775696

مراحل بعدی

بهترین راه برای کسب اطلاعات بیشتر در مورد طبقه بندی داده های ساخت یافته این است که خودتان آن را امتحان کنید. پیشنهاد می کنیم مجموعه داده دیگری را برای کار با آن پیدا کنید و مدلی را برای طبقه بندی آن با استفاده از کدهایی شبیه به موارد بالا آموزش دهید. برای بهبود دقت، به دقت فکر کنید که کدام ویژگی‌ها را در مدل خود بگنجانید و چگونه باید نمایش داده شوند.