MeanMetricWrapper
Organízate con las colecciones
Guarda y clasifica el contenido según tus preferencias.
Subclases directas conocidas BinaryCrossentropy <T extiende TNumber >, CategoricalCrossentropy <T extiende TNumber >, CategoricalHinge <T extiende TNumber >, CosineSimilarity <T extiende TNumber >, Hinge <T extiende TNumber >, KLDivergence <T extiende TNumber >, LogCoshError <T extiende TNumber >, MeanAbsoluteError <T extiende TNumber >, MeanAbsolutePercentageError <T extiende TNumber >, MeanSquaredError <T extiende TNumber >, MeanSquaredLogarithmicError <T extiende TNumber >, Poisson <T extiende TNumber >, SparseCategoricalCrossentropy <T extiende TNumber >, SquaredHinge <T extiende TNumber > | BinaryCrossentropy <T extiende TNumber > | Métrica que calcula la pérdida de entropía cruzada binaria entre etiquetas verdaderas y etiquetas previstas. | | CategoricalCrossentropy <T extiende TNumber > | Métrica que calcula la pérdida de entropía cruzada categórica entre etiquetas verdaderas y etiquetas previstas. | | Bisagra categórica <T extiende TNumber > | Métrica que calcula la métrica de pérdida de bisagra categórica entre etiquetas y predicciones. | | CosenoSimilaridad <T extiende TNumber > | Métrica que calcula la métrica de similitud del coseno entre etiquetas y predicciones. | | Bisagra <T extiende TNumber > | Una métrica que calcula la métrica de pérdida de bisagra entre etiquetas y predicciones. | | KLDivergencia <T extiende TNumber > | Métrica que calcula la métrica de pérdida de divergencia de Kullback-Leibler entre etiquetas y predicciones. | | LogCoshError <T extiende TNumber > | Métrica que calcula el logaritmo del coseno hiperbólico de la métrica de error de predicción entre etiquetas y predicciones. | | MeanAbsoluteError <T extiende TNumber > | Métrica que calcula la media de la diferencia absoluta entre etiquetas y predicciones. | | MeanAbsolutePercentageError <T extiende TNumber > | Métrica que calcula la media de la diferencia absoluta entre etiquetas y predicciones. | | MeanSquaredError <T extiende TNumber > | Métrica que calcula la media de la diferencia absoluta entre etiquetas y predicciones. | | MeanSquaredLogarithmicError <T extiende TNumber > | Métrica que calcula la media de la diferencia absoluta entre etiquetas y predicciones. | | Poisson <T extiende TNumber > | Una métrica que calcula la métrica de pérdida de Poisson entre etiquetas y predicciones. | | SparseCategorialCrossentropy <T extiende TNumber > | Una métrica que calcula la escasa pérdida de entropía cruzada categórica entre etiquetas verdaderas y etiquetas predichas. | | SquaredHinge <T extiende TNumber > | Una métrica que calcula la métrica de pérdida de bisagra al cuadrado entre etiquetas y predicciones. |
|
Una clase que une una función de pérdida sin estado con la métrica Mean mediante una reducción de WEIGHTED_MEAN .
La función de pérdida calcula la pérdida entre las labels y predictions y luego pasa esta pérdida a la métrica Mean para calcular la media ponderada de la pérdida durante muchas iteraciones o épocas.
Métodos heredados
De la clase java.lang.Object | booleano | es igual (Objeto arg0) |
| Clase final<?> | obtenerclase () |
| En t | código hash () |
| vacío final | notificar () |
| vacío final | notificar a todos () |
| Cadena | Encadenar () |
| vacío final | esperar (arg0 largo, int arg1) |
| vacío final | espera (arg0 largo) |
| vacío final | esperar () |
Métodos públicos
LossMetric pública <T> getLoss ()
Obtiene la función de pérdida.
Lista pública< Op > updateStateList ( Operando <? extiende TNumber > etiquetas, Operando <? extiende TNumber > predicciones, Operando <? extiende TNumber > sampleWeights)
Crea operaciones que actualizan el estado de la métrica media llamando a la función de pérdida y pasando la pérdida a la métrica media para calcular la media ponderada de la pérdida en muchas iteraciones.
Parámetros
| etiquetas | los valores o etiquetas de verdad |
|---|
| predicciones | las predicciones |
|---|
| pesos de muestra | SampleWeights opcional actúa como un coeficiente de pérdida. Si se proporciona un escalar, entonces la pérdida simplemente se escala según el valor dado. Si sampleWeights es un tensor de tamaño [batch_size], entonces la pérdida total de cada muestra del lote se vuelve a escalar mediante el elemento correspondiente en el vector sampleWeights. Si la forma de sampleWeights es [batch_size, d0, .. dN-1] (o se puede transmitir a esta forma), entonces cada elemento de pérdida de las predicciones se escala según el valor correspondiente de sampleWeights. (Nota sobre dN-1: todas las funciones de pérdida se reducen en 1 dimensión, generalmente eje = -1). |
|---|
Devoluciones
- a Lista de operaciones de control que actualiza las variables de estado medio.
A menos que se indique lo contrario, el contenido de esta página está sujeto a la licencia Reconocimiento 4.0 de Creative Commons y las muestras de código están sujetas a la licencia Apache 2.0. Para obtener más información, consulta las políticas del sitio web de Google Developers. Java es una marca registrada de Oracle o sus afiliados.
Última actualización: 2025-07-26 (UTC).
[[["Es fácil de entender","easyToUnderstand","thumb-up"],["Me ofreció una solución al problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Me falta la información que necesito","missingTheInformationINeed","thumb-down"],["Es demasiado complicado o hay demasiados pasos","tooComplicatedTooManySteps","thumb-down"],["Está obsoleto","outOfDate","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Problema de muestras o código","samplesCodeIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-07-26 (UTC)."],[],[]]