Biblioteka tensorflow_hub
umożliwia pobieranie i ponowne wykorzystywanie przeszkolonych modeli w programie TensorFlow przy minimalnej ilości kodu. Głównym sposobem ładowania przeszkolonego modelu jest użycie interfejsu API hub.KerasLayer
.
import tensorflow_hub as hub
embed = hub.KerasLayer("https://tfhub.dev/google/nnlm-en-dim128/2")
embeddings = embed(["A long sentence.", "single-word", "http://example.com"])
print(embeddings.shape, embeddings.dtype)
Uwaga: ta dokumentacja używa w przykładach uchwytów adresów URL TFhub.dev. Zobacz więcej informacji na temat innych prawidłowych typów uchwytów tutaj .
Ustawianie lokalizacji pamięci podręcznej do pobierania.
Domyślnie tensorflow_hub
używa ogólnosystemowego, tymczasowego katalogu do buforowania pobranych i nieskompresowanych modeli. Zobacz Buforowanie , aby zapoznać się z opcjami użycia innych, być może bardziej trwałych lokalizacji.
Stabilność API
Chociaż mamy nadzieję, że zapobiegniemy przełomowym zmianom, ten projekt jest nadal aktywnie rozwijany i nie ma jeszcze gwarancji, że będzie miał stabilny interfejs API lub format modelu.
Uczciwość
Podobnie jak w przypadku uczenia maszynowego, ważną kwestią jest uczciwość . Wiele wstępnie przeszkolonych modeli jest szkolonych na dużych zestawach danych. Podczas ponownego używania dowolnego modelu należy pamiętać o tym, na jakich danych model został przeszkolony (i czy istnieją tam jakieś uprzedzenia) oraz o tym, jak mogą one wpłynąć na korzystanie z niego.
Bezpieczeństwo
Ponieważ zawierają one dowolne wykresy TensorFlow, modele można traktować jak programy. Używanie TensorFlow Securely opisuje implikacje bezpieczeństwa związane z odwoływaniem się do modelu z niezaufanego źródła.