欅坂46 ブログの自動生成

  1. 開発と感想

  2. 使い方

 

1. 例

 

平手友理奈

洋服の時に少しねるだったなぁ。みなさんにぽんちゃんの顔スペシャル…よい!あと、声を結構まんじゅうさせて大好きな!!雰囲気が…感じさせてしまって(。-∀-)(では、おやすみなさいばい✋ー(*´▽•,,`)ノひキリトリら✋こんばんは今日、写真冠握手会の時と一緒のでしょましょう。じゃあ、みなさんに見てくださいね(。・ω`*)プイ今日は昨日がなりなくて。あ!衣装のZIP(≧∇≦)/新聞さんに帰ろちゃったので、大人スタバがテーマなぁ〜ほんとに。大好きなあかねなぁ。。ゆっくりしてジャーンプの方々にキュンキュンなってしまった笑ポンが感謝ないです。次週前に歌詞の着言って貢献時の幸せなといつも思っています。私達もこんな緊張しました。サイレントマジョリティーもココアに顔があっていきます(-----------)わたしも、今日はこのへんで!!またね!こんばんは(。・ω・。)最近、ひらね

 

長沢菜々香

(><)これからも、よろしくね!お楽しみに〜😭演劇部流れること?お洋服とか着たいな〜どっちが多め膨らみました!ぺーちゃんもにゃーるε熱い外食。グミこれは、ピンク好きです。読んでくれてありがとうございました。⊿長沢菜々香⊿こんばんなーこ(*⌒▽⌒*)朝ごはんから珍しいもの。かき氷のラインを食べました!休んでくれてありがとうございました!⊿長沢菜々香⊿こんばんなーこ(*⌒▽⌒*)昨日は、個別握手会ありがとうございました!20レーン好きな!青春大好き!干物アリーナ応援本当に愛読することができました。本当にありがとうございます(;_;)今回は、尾関の言い合っが咲く頃「ぐるぐる選挙」を見ていただきました。動物は何も面白いなあ(*¨*)♡読んでくれてありがとうございました。⊿長沢菜々香⊿こんにちは(♡˙︶˙♡)昨日の夜は、無言で応援して

 

 米谷奈々未

明日も美味しくられました(T_T)メチャワカリちゃったもだけの衣装でも楽しかった……!③優しくていいよ(笑)そうです目覚め起きてもいなかなかゅたんとこんときお·埋めなくても美味しため〜(*´꒳`*)今日のお写真♡ねじやすかった♪ふーちゃんのサイレントマジョリティーと多くへんのは主題歌です(笑)ごめんなさいm(*__)m話そーっーーーくれて頑張ろ٩(。•ω•。)و欅坂みんなのゾンビに吹かれるオンエアツアーにプレゼントでした。バスと一緒に欅の大好きで。かなり髪をしてた、インテリ興奮やからね♪当たってくれてありがとう〜ㅂー`ωー´)中心の方の前とか((艸`)中かな?ぎゅん(笑)ほんまに聞いてくれて、幸せぁっと来ていきたいです!!!マグカップ娘意味で短くてた人の特集にネット( ̄▽ ̄)チョコ高槻こと生を盛り上げて載っける٩

 

 2. 開発と感想

ディープラーニングを勉強しており、以下の本に出会った。

「斎藤康毅著 ゼロから作る DeepLearning② ー自然言語処理編」

https://www.amazon.co.jp/%E3%82%BC%E3%83%AD%E3%81%8B%E3%82%89%E4%BD%9C%E3%82%8BDeep-Learning-%E2%80%95%E8%87%AA%E7%84%B6%E8%A8%80%E8%AA%9E%E5%87%A6%E7%90%86%E7%B7%A8-%E6%96%8E%E8%97%A4-%E5%BA%B7%E6%AF%85/dp/4873118360/ref=pd_lpo_sbs_14_t_1?_encoding=UTF8&psc=1&refRID=9NDJYW594KXAJRCHQMX8

 

本を読み、outputとして、タイトルのものを思いついた。

 

web上にある欅坂のブログをスクレイピングし、文章をmecabを用いて形態素に分解し、単語ベクトルを生成し、LSTM(RNNの一種)でブログを自動生成した。

 

自然な日本語には今ひとつといったところ。

一応完成できたのは上に挙げた本がわかりやすく、LSTMの箇所まで読めたことが大きいと思う。

 

 技術的な解説と開発日記は別投稿します。

 

3. 使い方

ターミナル上で実行します。

 

必要なpython3のライブラリは

mecab

・Matplotlib

・NumPy

です。

  

具体的な操作法はgithubのREADME.mdをご覧ください。

github.com

 

「数学は遅効性がある」

大学院時代、慕っていた先生の一人から聞いた言葉。

 

聞いた当初は「巧い言い方だな」と思った。

今数学が役に立たなくても、必ず実を結ぶ時が来る、

それは(一抹には)確かにそうだと思う。

 

だがうがった捉え方をすれば、数学に苦しむときはいつも”今”であり、

その時点で未来に希望を持つのは、必ずしも簡単でないこともあった。

 

今、「斎藤康毅著 ゼロから作る DeepLearning」

ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装

の4章”ニューラルネットワークの学習”を読んでいる。

その中に

「損失関数の(微小な区間の)挙動が、重みパラメータに対する微分からわかる」

とあり早速役立っている。

 

先生と斎藤康毅さんに感謝を伝えたい。