エントロピー造句
- システムB(エントロピー)では,全検索課題について正の相関があった.
在系统B(平均信息量)中,所有检索课题都是正的关系。 - また,同じキーの数の間でも割当てによってはエントロピーが大きく変動する。
其次,同样键数之间的分配不一样,熵的变化也很大。 - Step 6 M.のエントロピーH(t)を付録Aの方法で計算する.
Step 6 M.的熵H(t)使用附录A的方法来计算。 - ここでは,そのような場合にLEAとクロスエントロピーの性能の比較を行う.
在此,我们比较了这种情况下LEA与交叉熵的性能。 - 目的関数としてはよく知られている分割後エントロピー[森下98]を用いる.
我们使用常见的分割后熵[森下98]作为目标函数。 - そこで,本論文では文字単位のエントロピー(パープレキシティ)の指標も用いる
因此,本文也采用了文字单位的熵(复杂度)的指标 - また最大エントロピー法では素性の設定と素性パラメータの算出が必要となる
最大熵模式中特征的设定和特征参数的计算是必要的。 - 本研究の最大エントロピー法の実験では,文献13)のシステムを用いる☆.
本研究的最大熵法的试验,使用文献13)的系统☆。 - 本章を終えるにあたり,CVMの意味をエントロピーの立場で説明する.
在结束本章前,从平均信息量的角度来说明CVM的情况。 - 削除されたデータLiで,式(9)によりクロス?エントロピーの値を計算する
被删除的数据Li,通过公式(9)计算出交叉信息熵。 - It's difficult to see エントロピー in a sentence. 用エントロピー造句挺难的
- 訓練データから統計情報を学習する際には,最大エントロピー法を用いる
在学习训练资料,统计信息时,使用最大平均信息量法。 - 索引語文書行列の各要素に対する重み付けには対数エントロピー法を用いた。
对于索引语文本行列的各要素重要性排列时使用指数效率法。 - 以上のように,提案手法0は最大エントロピー法と比べるとやや成績が低い.
如上所述,提案方法0和最大平均信息量法相比,效果稍差。 - また,これまでの結果では,最大エントロピー法の方が好成績である.
同时,在之前的结果中,最大平均信息量法是最理想的。 - このエントロピーの計算値を実測値の代わりに使い,相境界線を計算することが可能である。
可以使用该熵的计算值替代实测值,计算相界。 - しかし,全体的に見れば,最大エントロピー法と同等の性能が達成されている.
但是,就整体而言,可以达成和最大平均信息法相等的性能。 - 次に,式()の制約を満たす確率分布p(a, b)のうち,エントロピー
其次,在满足公式()限定的概率分布p(a, b)中,把使熵 - 文書集合Dに対する分類観点Sjの分類のエントロピーを以下の式で定義する
用下式定义针对文件集合D的分类观点Sj分类的平均信息量。 - 複雑度とは一音韻あたりのエントロピーに相当し,式(2)より計算できる
复杂度相当于每个声音的平均信息量,用公式(2)可以计算得到 - これらの表では,実験結果をエントロピーではなくパープレキシティで表示している
这些表中,实验结果由复杂度而非熵表示