Zadbaj o dobrą organizację dzięki kolekcji Zapisuj i kategoryzuj treści zgodnie ze swoimi preferencjami.

Elastyczne, kontrolowane i interpretowalne ML z modelami sieciowymi

import numpy as np
import tensorflow as tf
import tensorflow_lattice as tfl

model = tf.keras.models.Sequential()
model.add(
    tfl.layers.ParallelCombination([
        # Monotonic piece-wise linear calibration with bounded output
        tfl.layers.PWLCalibration(
            monotonicity='increasing',
            input_keypoints=np.linspace(1., 5., num=20),
            output_min=0.0,
            output_max=1.0),
        # Diminishing returns
        tfl.layers.PWLCalibration(
            monotonicity='increasing',
            convexity='concave',
            input_keypoints=np.linspace(0., 200., num=20),
            output_min=0.0,
            output_max=2.0),
        # Partially monotonic categorical calibration: calib(0) <= calib(1)
        tfl.layers.CategoricalCalibration(
            num_buckets=4,
            output_min=0.0,
            output_max=1.0,
            monotonicities=[(0, 1)]),
    ]))
model.add(
    tfl.layers.Lattice(
        lattice_sizes=[2, 3, 2],
        monotonicities=['increasing', 'increasing', 'increasing'],
        # Trust: model is more responsive to input 0 if input 1 increases
        edgeworth_trusts=(0, 1, 'positive')))
model.compile(...)

TensorFlow Lattice to biblioteka, która implementuje ograniczone i interpretowalne modele oparte na sieci. Biblioteka umożliwia wprowadzenie wiedzy z domeny do procesu uczenia się poprzez zdroworozsądkowe lub oparte na zasadach ograniczenia kształtu . Odbywa się to za pomocą kolekcji warstw Keras, które mogą spełnić ograniczenia, takie jak monotoniczność, wypukłość i interakcje między funkcjami. Biblioteka zapewnia również łatwe do skonfigurowania gotowe modele i gotowe estymatory .

Dzięki TF Lattice możesz wykorzystać wiedzę o domenie, aby lepiej ekstrapolować do części przestrzeni wejściowej, które nie są objęte treningowym zestawem danych. Pomaga to uniknąć nieoczekiwanego zachowania modelu, gdy dystrybucja udostępniania różni się od dystrybucji uczenia.