Skip to main content

Posts

Showing posts from June, 2019

Code xong phần xoá phông ảnh

Room of Infomatics Student

Cocacola vị vanilla

Năm của Pay

Hôm qua mới 1 vạch lên 9k7 bán cmnr

バイト先のラーメンが大好き

12h đêm Nguyên đi vượt rào trường

Kawaii?

CakePHP3入門

1.CakePHPとは  CakePHPはWebアプリケーションフレームワークと呼ばれている。一般的なWebアプリケーションを作る際の基本的なシステムを提供するフレームワークだ。またMVCフレームワーク(Model-View-Controller)と呼ばれるものでもある。 2.準備 2.1.Composerを用意  PHPでは、Composerと呼ばれるパッケージ管理ツールがある。これを利用してCakePHPを使うのは一番いい。Composerについては他のトピックに載せたのであそこにご参照ください。 2.2.XAMPPを用意  Web開発を行うとき、Webサーバが必要となっているが、ローカルサーバでも構わないのでXAMPPを使おう。XAMPPについては他のトピックに載せたのであそこにご参照ください。ただし、「php」フォルダ内にある「php.ini」の「extension=php_intl.dll」のコメントを外してください。 3.プロジェクト作成  コマンドを利用して作成しよう composer create-project --prefer-dist cakephp/app my-project

Install CakePHP

Composerの使い方 - NgDinhNha

WordPressをXAMPPにインストール

 参照:C:\xampp\phpMyAdmin\config.inc.php

深層ニューラルネットワーク(DNN)

深層学習は何がディープラーニングなのか? 深層学習とは人工ニューラルネットワーク(ANN)での学習にほかならず、深層学習でディープなのは、ANNの「隠れ層(中間)層」です。 ネットワークの構造のベースは多層パーセプトロンです。 中間層が深いネットワークをディープニューラルネットワーク(DNN)と呼びます。わずか数年前は中間層が3~5層であれば深層学習と言われましたが、現在は中間層が数100~200以上のものも多く登場しています。 深層学習の流行は様々な要因があると考えられますが、主に7つが大きいと考えています 1.インターネットの普及  ディープラーニングではデータ量が多ければ多いほど精度が高くなる傾向があります。インターネットが広く一般に普及した結果、大量のデータがインターネットを通じてやり取りされ収集できるようになりました。  このデータ・セットを利用できるようになったことが、ディープラーニングの実ならず機械学習全般において優位に働いていることは間違いありません。 2.GPGPUの普及  深層学習を計算するためのコンピューティング環境の充実が深層学習の普及に一役買ったといわれています。  GPU(Graphics Processing Unit)は名前の通り、画像処理が専門の演算装置でして、CPUのような汎用計算を行う演算装置とはもともと性質・用途の異なるものでした。  ところが、2007年にGPGPU(General Purpose Graphics Processing Unit)という汎用計算も行える演算装置が統合開発環境「CUDA」とともにNVIDIA社から提供されるようになると、深層学習とGPGPUは大変相性がいい(線形代数冤罪を大量に並列に行うことが可能である)ことから、シナジー効果をもたらし、一緒に普及していくこととなりました。 3.勾配消失問題の解決  一般医深い層のネットワークを学習させようとすると、誤差が入力層まで伝播されなくなってしまいます。これは、隠れ層の活性化関数の影響が大きく、シグモイド関数のように微分すると最大値が0.25になり、これを掛け合わせていくとすぐに0に近づいていきます。これを改善するためにHyperbolic Tangentという微分したときに最大値が1になるような関数y=(1-e^(-N))/(1+e^(-N))が活性

人工ニューラルネットワーク(ANN)

ディーブラーニング(深層学習)は何がディーブなのか?  この質問に正確に答えられることが求められますので、即答できない方は  多重共線性についてはG検定公式テキストには掲載されてなかったですが、テストには出題される可能性が高いため、覚えておいた方がいいです。 たん回帰分析では、予測するための直線はy=wx+bのように表すことができますし、複数の「説明変数」に拡張するとu=nΣ(i=0)wixiで表すことができる ロジスティック回帰 シグモイド関数は別名「ロジスティック回帰」と呼ばれ、ロジット関数の逆関数となっています。ロジスティック回帰では、対数オッズ(分子が発生確率p、分母が非発生確率(1-p)の時にこれをオッズと呼びます。オッズの対数(logとする)と対数オッズになります)を重回帰分析により予測します。 重回帰で予測するので、「ロジスティック回帰」という名前がついていますが、予測する対象は、非連続なクラスである為、ロジスティック回帰は「分類」手法に属するものです 多層パーセプトロン ネットワーク全体の表現力は大きく上向し、多層パーセプトロンでは非線形分類も可能となりました。 ネットワークを深くすればするほど誤差の伝播がうまくいかなくなったり、学習させる対象のデータが十分になかったり、必要な計算リソースが用意できなかったり、と当初はまだディープラーニングネットワークが流行して実用化する土壌が出来上がっていなかったといえる

Line Payから