機械学習・最適化における交差エントロピー誤差(英: cross entropy loss, CE loss)は交差エントロピーを用いた分布間距離表現による損失関数である。 真の確率 p i {\displaystyle p_{i}} が真のラベルであり、与えられた分布 q i {\displaystyle q_{i}}
entropy)または連続エントロピー(continuous entropy)は情報理論における概念で、シャノン情報量(確率変数が持つ平均的自己情報量(英語版)の尺度)を連続型確率分布にまで拡張するクロード・シャノンの試みに端を発する。情報量の概念を連続量まで真に拡張したものに limiting density