查电话号码 繁體版 English Francais日本語
登录 注册

パーセプトロン造句

"パーセプトロン"是什么意思  
造句与例句手机版
  • 具体的には以下のような逐次的パーセプトロン学習則を適用することで埋め込みが達成される.
    具体的填充通过如下所示逐次应用感知器学习法则实现。
  • ニューロタガーは,単一の三層パーセプトロン(図2)で構成される.
    由单一的三层视感控制器(图2)构成的。
  • パーセプトロン以外の関数族でも同様に機能する.
    感知器以外的函数族也同样具有相同的功能。
  • ニューラルネットは標準的な3層パーセプトロンを用い,そのキャパシティは,交差検証法で制御した.
    类神经网络法使用了标准的3层式感知器,它的能力是通过交替验证法来控制的。
  • 三層パーセプトロンのアーキテクチャやニューロタガーの特徴などについては文献21),22)を参照されたい.
    三层视感控制器的结构或神经网络的特征,要参照文献21),22)。
  • 図1に示すように,シングルニューロタガーは三層パーセプトロン(詳細は[HaykinHaykin1994]を参照)で構成される
    如图1所示,单一神经标注器由三层感知器(详细请参照[HaykinHaykin1994])构成。
  • ただしf(?)はweightパラメータを持つパーセプトロン出力,βは不確定性レベル(未知),ZD(β)は正規化定数である.
    只是, f(?)是具有weight参数的感知器输出,β是不确定性水平(未知),ZD(β)是正规化常数。
  • 本稿では,ニューラルネットf(;Θ)のクラスとして,以下のような,中間ユニットの活性化関数をg(u)とする3層パーセプトロンを考える.
    本文,作为神经网络f(;Θ)的级,如下,对把中间组合的活化函数作为g(u)的3层感知器进行思考。
  • 解答抽出.選択に関しては,パーセプトロンを用いた研究13)や決定木を用いた研究12), SVMを用いた研究17)が行われている.
    在解答的提取和选择方面,则有利用了感知器的研究13)、利用了决定木的研究12)以及利用了SVM的研究17)。
  • カーネル学習器としては,実装の簡便さから,SVMと比較しても遜色ない性能をもつカーネルパーセプトロン[Freund 99]を用いた.
    Kernel学习机,从实际安装的简便性出发,使用了即使与SVM相比,其性能也毫不逊色的的Kernel感知器[Freund 99]。
  • It's difficult to see パーセプトロン in a sentence. 用パーセプトロン造句挺难的
  • たとえば,3層パーセプトロンにおいて,各ユニットのバイアスにはペナルティを施さず,重みについては各層間ごとに異なるペナルティ係数を施す提案1)もこの枠組みに入る.
    例如,3层感知器中,对各组合的偏差不给予处罚,对于加权,在每层之间给予了不同处罚系数的提案1)也装入了框架。
  • なぜならば,英語の場合は線形分離可能な問題しか解決できない二層パーセプトロンでタグづけ問題を学習できたのに対し,タイ語の場合は三層以上でなければ学習が正しくできなかった
    因为,英语中使用仅能解决线型分离可能问题的二层感知器学习标注问题即可,而与此相对,泰语中则是非三层以上就不能正确地学习。
  • 遅延座標値{xt,xt―1,???,xt?―τ+1}がパーセプトロン各入力層素子ごとに入力され,最初の座標xtから中間層素子へのweightをまとめて1とする(次元h).
    假设迟延坐标值{xt,xt―1,???,xt―τ+1是被输入到感知器全部各输入层因子中,假设从最初坐标到中间层因子的weight合计为1(维数h)。
  • それに対し,例えば中間層のユニット数が入力層の半分であるような三層パーセプトロンを用いたニューロタガーの場合,必要とされるパラメータ(ユニット間の結合)の数は僅か@equation_0@@equation_1@@equation_2@である
    与此相对,使用了中间层的单元数为输入层单元数一半的三层感知器的神经标注器的案例中,必需的参数(单元之间的匹配)的数量仅为@equation_0@@equation_1@。
  • 与えられた時系列{x }Nからその将来値を予測することが目的の場合,何らかの関数系,たとえばパーセプトロン,RBF(RadialBasisFunction)などによりdatafittingを行う手法と,必ずしも関数系を用いない手法がある.
    要从给定的时间系列{x }N中预测其将来值时,该方法有通过某种函数系统,如感知器、RBF(RadialBasisFunction)等进行datafitting的方法和未必使用函数系统的方法。
  • ベイズ統計的枠組みでは,未知パラメータの尤度ベイズ統計的枠組みでは,未知パラメータの尤度(likelihood)と先験分布(prior)が与えられることで力関数@equation_0@の3層パーセプトロンで学習?予測を行うことを考える.
    贝叶斯统计式的结构中,在未知参数的似然度贝叶斯统计式结构中,未知参数的似然度(likelihood)和先验分布(prior)是给定的,它们是通过力函数@equation_0@的三层感知器进行学习和预测的。
  • 個々のタガーSNT@equation_0@は入力長さ@equation_1@(@equation_2@)で入力層@equation_3@中間層@equation_4@出力層に@equation_5@個のユニットを持つ三層パーセプトロンであった
    各个标注器SNT@equation_0@是输入长度为@equation_1@(@equation_2@)的,在输入层@equation_3@中间层@equation_4@输出层中有@equation_5@个单元的三层感知器。
  • 三層パーセプトロンは誤差逆伝播学習アルゴリズム[Rumelhart, McClelland, PDP Research GroupRumelhart et al.1984]を用いて品詞のタグづけ済みの訓練用データを学習することによって品詞タグづけ能力を学習できる
    三层感知器可以使用误差反向传播学习算法[Rumelhart, McClelland, PDP Research GroupRumelhart et al.1984]通过学习已完成词性标注的训练数据,记忆词性标注能力。
  • サポートベクターマシン,パーセプトロン,ロジスティック回帰モデル(最大エントロピーモデル)等,幾つかの学習アルゴリズムは,その中で例が単独では現れずに常に二つの例xとz内積@equation_0@として現れる形に書ける[Sch¨olkopf 02, Shawe―Taylor 04].
    在支持向量机、感知器、逻辑回归模型(最大平均信息量)等数个研究程序中,例子都不是单独出现的,而是通常以两个例子x和z的内积@equation_0@的形式出现[Sch¨olkopf 02,Shawe―Taylor 04]
如何用パーセプトロン造句,用パーセプトロン造句パーセプトロン in a sentence, 用パーセプトロン造句和パーセプトロン的例句由查查汉语词典提供,版权所有违者必究。