

Bedingte Entropie, Fachbücher von Erik Yama Étienne
34,00 €
In der Informationstheorie ist die bedingte Entropie ein Mass für die Ungewissheit über den Wert einer Zufallsvariablen X, die verbleibt, nachdem das Ergebnis einer anderen Zufallsvariable Y bekannt wird. Die bedingte Entropie wird H(X Y) geschrieben und hat einen Wert zwischen 0 und H(X), der ursprünglichen Entropie von X. Sie wird in der gleichen Masseinheit wie die Entropie gemessen. Speziell hat sie den Wert 0, wenn aus Y der Wert von X funktional bestimmt werden kann, und den Wert H(X), wenn X und Y stochastisch unabhängig sind.
Deine Shops für beste Deals

Galaxus
Logge dich ein für Coupon Details
17 Punkte
% Best Deal
Versandkostenfrei | Lieferzeit: 2-4 Werktage
Ähnliche Produkte
Produktinfos
Informationen
Lieferzeit:2-4 Werktage
Hersteller:Betascript Publishing