2021-01-01から1年間の記事一覧

日本は他の国のKagglerよりTwitterが活発なのか

3行で 最近、日本人Kagglerが強く・多くなっているのか、日本は他の国のKagglerよりTwitterが活発なのかを調べた。 2021年12月時点で、KaggleRankTop100の中で最もユーザーが多い国は日本であり、ユーザー増加率、Tweet率も高い可能性がある。 今後も日本人K…

言語処理100本ノック 2020 第9章を解きました。

80. ID番号への変換 81. RNNによる予測 82. 確率的勾配降下法による学習 83. ミニバッチ化・GPU上での学習 84. 単語ベクトルの導入 85. 双方向RNN・多層化 86. 畳み込みニューラルネットワーク (CNN) 87. 確率的勾配降下法によるCNNの学習 88. パラメータチ…

「象は鼻が長い」を依存構造解析してみた

はじめに 「象は鼻が長い」という二重主語問題の例文について知り、自然言語処理における解析器はどのように解析するのか知りたくなったため、簡単に調べてみることにしました。 おかしい点があれば指摘頂けると助かります。 何が問題か 「象は鼻が長い」と…

自然言語処理〔改訂版〕 (放送大学教材)を読みました

自然言語処理〔改訂版〕 (放送大学教材)を読んだので、その感想をまとめます。 www.kinokuniya.co.jp なぜ読んだか 自然言語処理を仕事で使うことが増えたのですが、知識がほぼなかったため基礎から学びたいと思っていました。 チームの自然言語に詳しい方か…

Python pathlibを利用した、どこから実行しても読み込めるパスの書き方

三行で 初めに dir構成 実行する場所が制限されるパスの書き方 ファイルの中身 自分がwrite_blog_file/srcにいるとき 自分がwrite_blog_fileにいるとき どこから実行しても読み込めるパスの書き方 pathlib.Path(__file__)は実行ファイルのパスを取得する pat…

言語処理100本ノック 2020 第8章を解きました。

70. 単語ベクトルの和による特徴量 71. 単層ニューラルネットワークによる予測 72. 損失と勾配の計算 73. 確率的勾配降下法による学習 74. 正解率の計測 75. 損失と正解率のプロット 76. チェックポイント 77. ミニバッチ化 78. GPU上での学習 79. 多層ニュ…

言語処理100本ノック 2020 第7章を解きました。

60. 単語ベクトルの読み込みと表示 61. 単語の類似度 62. 類似度の高い単語10件 63. 加法構成性によるアナロジー 64. アナロジーデータでの実験 65. アナロジータスクでの正解率 66. WordSimilarity-353での評価 67. k-meansクラスタリング 68. Ward法による…

audibleのメリット・デメリット+学びを結果に変えるアウトプット大全 感想

audibleのメリット・デメリット 歩いている時間や家事の時間に気軽に聞けて、読み進める(聴き進める)ハードルが低い (個人的には)文章より音声の方が記憶に残りやすい audibleで読めるのは、図・数式・コードが少なめの本のみ すぐに見返すことはできな…