W3Cschool
恭喜您成為首批注冊用戶
獲得88經(jīng)驗值獎勵
tf.nn.sparse_softmax_cross_entropy_with_logits(
_sentinel=None,
labels=None,
logits=None,
name=None
)
定義在:tensorflow/python/ops/nn_ops.py。
計算logits和labels之間的稀疏softmax交叉熵。
測量離散分類任務中的概率誤差,其中類是互斥的(每個條目僅在一個類中)。例如,每個CIFAR-10圖像都標有一個且只有一個標簽:圖像可以是dog或truck,但不能同時是兩者。
注意:對于此操作,給定標簽的概率被認為是唯一的。也就是說,不允許使用soft類,并且labels向量必須為每一行l(wèi)ogits(每個小批量條目)的真實類提供單個特定索引。對于每個條目的概率分布的soft softmax分類,請參閱softmax_cross_entropy_with_logits_v2。
警告:此操作需要未縮放的日志,因為它在內部日志上執(zhí)行softmax,以提高效率。不要使用softmax的輸出調用此操作,因為它會產生不正確的結果。
常見的用例是具有shape [batch_size, num_classes]的logits和labels標簽,但支持更高的維度,在這種情況下,假定第dim維度的大小為num_classes。logits必須具備float16,float32或者float64類型,并且labels必須具有int32或int64類型。
請注意,為避免混淆,需要僅將命名參數(shù)傳遞給此函數(shù)。
參數(shù):
返回:
一個Tensor,與labels形狀相同、與具有SoftMax交叉熵損失的logits具有相同的類型。
可能引發(fā)的異常:
Copyright©2021 w3cschool編程獅|閩ICP備15016281號-3|閩公網(wǎng)安備35020302033924號
違法和不良信息舉報電話:173-0602-2364|舉報郵箱:jubao@eeedong.com
掃描二維碼
下載編程獅App
編程獅公眾號
聯(lián)系方式:
更多建議: