#author("2023-01-11T15:49:05+09:00","default:irrp","irrp")
→データ処理関連

→ディープラーニング

→AI/機械学習

→画像生成

→画像認識/検出/トラッキング

#contents


*サブトピック [#y53db77d]
-全文検索


*NLP一般/大規模モデル [#p48667e6]
-[[【Deep Learning研修(発展)】系列データモデリング - YouTube>https://www.youtube.com/playlist?list=PLbtqZvaoOVPA-keirzqx2wzpujxE-fzyt]] 2022.12

-[[政治家の発言を可視化し、問題解決に取り組んでいるかを調べる [by ChatGPT] - Qiita>https://qiita.com/yutakobayashi/items/1381de1da52ea7ca56b9]] 2022.12

-[[言語処理100本ノック第2章 解答と解説のまとめ - ブレインズコンサルティング・テックブログ>https://blog.brains-consulting.tech/entry/2022/09/13/173954]] 2022.12

-[[人間の言葉をコンピュータが理解できるようにするための「ベクトル化」の話 | DevelopersIO>https://dev.classmethod.jp/articles/vectorization-in-natural-language-processing/]] 2022.12
--形態素解析,構文解析,意味解析,文脈解析,カウントベース,分散表現


-[[MIT Tech Review: 大規模言語AIにアキレス腱、訓練用データが2026年にも枯渇か>https://www.technologyreview.jp/s/291329/we-could-run-out-of-data-to-train-ai-language-programs/]] 2022.11

-[[Hugging Faceのモデル学習で、モデルをカスタマイズする方法 | DevelopersIO>https://dev.classmethod.jp/articles/huggingface-usage-custom-model/]] 2022.11

-[[Introduction - Hugging Face Course>https://huggingface.co/course/chapter0/1?fw=pt]] 2022.11

-[[第5回 【Python】まだ見ぬアクティビティーを求めてアソビュー !Doc2Vecモデルチューニング - Qiita>https://qiita.com/Tokoroteen/items/1da9434e90ff407e6422]] 2022.11

-[[DeepL APIを公式のDeepL Python Libraryから利用する | ジコログ>https://self-development.info/deepl-api%e3%82%92%e5%85%ac%e5%bc%8f%e3%81%aedeepl-python-library%e3%81%8b%e3%82%89%e5%88%a9%e7%94%a8%e3%81%99%e3%82%8b/]] 2022.11

-[[(PDF) Natural Language Processing with Python>https://www.researchgate.net/publication/220691633_Natural_Language_Processing_with_Python]] 2022.10

-[[Large Language Models and Where to Use Them: Part 1>https://txt.cohere.ai/llm-use-cases/]] 2022.9

-[[夏目漱石さんの「こころ」の心を感情分析プログラムで解析してみた - Qiita>https://qiita.com/Mizuiro__sakura/items/236ef2b239c8c0e077a9]] 2022.9

-[[今さら聞けない自然言語処理(NLP) - Qiita>https://qiita.com/taka_yayoi/items/92ec880c7d7c6ce271d5]] 2022.9

-[[近年の本格ミステリを可視化する【テキストマイニング】 - Qiita>https://qiita.com/masaka_programming/items/4d871f90c5876a3bcb38]] 2022.9

-[[[Salesforce Research論文]自然言語からコードを生み出す”CodeGen”を試してみた | DevelopersIO>https://dev.classmethod.jp/articles/check-sample-code-for-codegen/]] 2022.8

-[[【メタサーベイ】基盤モデル / Foundation Models>https://www.slideshare.net/cvpaperchallenge/foundation-models]]  2022.8
--Transformer,BERT, ViT, CLIP, GLIDE, ...

-[[自然言語処理分野で用いられる敵対的学習手法について - Platinum Data Blog by BrainPad>https://blog.brainpad.co.jp/entry/2022/08/23/153001]] 2022.8

-[[Pythonで文章要約!自然言語処理を使ってExciteの記事を要約してみた - エキサイト TechBlog.>https://tech.excite.co.jp/entry/2022/08/19/181445]] 2022.8

-[[Wav2Vec2.0を使った音声認識を試してみました! - CCCマーケティング TECH Labの Tech Blog>https://techblog.cccmk.co.jp/entry/2022/08/09/131953]] 2022.8

-[[GitHub - manticoresoftware/manticoresearch: Easy to use open source fast database for search | Good alternative to Elasticsearch now | Drop-in replacement for E in the ELK soon>https://github.com/manticoresoftware/manticoresearch]] 2022.8

-[[BLOOMはここ10年で最も重要なAIモデルだ | AI専門ニュースメディア AINOW>https://ainow.ai/2022/08/30/267101/]] 2022.8
-[[The Technology Behind BLOOM Training>https://huggingface.co/blog/bloom-megatron-deepspeed]] 2022.7


-[[Are Large Language Models Sentient? | by Naim Kabir | Jun, 2022 | Level Up Coding>https://levelup.gitconnected.com/are-large-language-models-sentient-d11b18ef0a0a]] 2022.6

-[[NER(固有表現抽出)始めませんか? 第1回 | NTTデータ先端技術株式会社>https://www.intellilink.co.jp/column/ai/2021/120700.aspx]] 2021.12

-[[【保存版】さまざまな自然言語処理の手法を学べるレシピ30選(2022年4月版) - Qiita>https://qiita.com/AxrossRecipe_SB/items/fd1e6e893e3f3fb50d2c]] 2022.4

-[[【日本語モデル付き】2021年に自然言語処理をする人にお勧めしたい事前学習済みモデル - Qiita>https://qiita.com/sonoisa/items/a9af64ff641f0bbfed44#2-%E3%83%8B%E3%83%A5%E3%83%BC%E3%82%B9%E8%A8%98%E4%BA%8B%E3%81%AE%E3%82%BF%E3%82%A4%E3%83%88%E3%83%AB%E7%94%9F%E6%88%90%E4%B8%80%E7%A8%AE%E3%81%AE%E6%96%87%E7%AB%A0%E8%A6%81%E7%B4%84]] 2021
-[[フリーで使える日本語の主な大規模言語モデルまとめ>https://zenn.dev/hellorusk/articles/ddee520a5e4318]] 2022.4

-[[SageMakerで作るケチケチ文書分類 - Mirai Translate TECH BLOG>https://miraitranslate-tech.hatenablog.jp/entry/2022/04/19/120000]] 2022.4

-[[【タイタニック】AutoTrainで2値分類 - Qiita>https://qiita.com/relu/items/200168efa13a7ed55d12]] 2022.4
--AutoTrainとはノーコードでテキスト分類や要約や構造化データの機械学習などがstate-of-the-artできるサービスです。
-[[AutoTrainで文章要約 - Qiita>https://qiita.com/relu/items/129de82967d99ee4c398]] 2022.4

-[[NLP2022に参加しました(前編)|朝日新聞社 メディア研究開発センター|note>https://note.com/asahi_ictrad/n/n2b6721134972]] 2022.3

-[[「テキストアナリティクスの基礎と実践」をpythonで読む3 テキストの特徴分析 - Qiita>https://qiita.com/tanaka_benkyo/items/58f5ace6d7668688117f]] 2022.3

-[[言語処理100本ノック 2020 (Rev 2) - NLP100 2020>https://nlp100.github.io/ja/]] 2020
--[[【言語処理100本ノック 2020】Pythonによる解答例まとめ - Qiita>https://qiita.com/yamaru/items/0cac24710626333bd693]] 2020.11

-[[【AIのべりすと】とうとうAIが面白い小説を書けるようになってきた!! 〜AIによる小説の自動生成の最前線〜  - Qiita>https://qiita.com/mfuji3326/items/f86aca1df4ddc85c4a50]] 2021.11
--https://ai-novel.com/index.php


* GPT [#l9bc9c4d]
-[[OpenAI API で提供されている GPT-3モデル まとめ|npaka|note>https://note.com/npaka/n/nef372ec2e33a]] 2023.1

-[[GPT-3の論文を読んでいます! - CCCMKホールディングス TECH Labの Tech Blog>https://techblog.cccmk.co.jp/entry/2022/12/28/094423]] 2022.12
--"GPT-3"は"Transformer"をベースにしたモデルで、その特徴はその中に含まれる巨大なパラメータ数にあります。そのパラメータ数は175Billion, つまり1,750億になるそうです。"GPT"が117Million(1億1,700万)、"GPT-2"が1,542Million(15億4,200万)のパラメータで構成されている

-[[OpenAI開発のテキスト生成AI「GPT-3」がどんな処理を行っているのかを専門家が解説 - GIGAZINE>https://gigazine.net/news/20221212-gpt-3-architecture/]] 2022.12

-[[【無料】GPT-3レベルのGoogle製Flan-T5を利用する方法 | ジコログ>https://self-development.info/%e3%80%90%e7%84%a1%e6%96%99%e3%80%91gpt-3%e3%83%ac%e3%83%99%e3%83%ab%e3%81%aegoogle%e8%a3%bdflan-t5%e3%82%92%e5%88%a9%e7%94%a8%e3%81%99%e3%82%8b%e6%96%b9%e6%b3%95/]] 2022.11

-[[ABEJAで作った大規模GPTモデルとその道のり - ABEJA Tech Blog>https://tech-blog.abeja.asia/entry/abeja-gpt-project-202207]] 2022.7

-[[13億パラメータの日本語特化GPT言語モデルを使ってSlackAIチャットボットを作ってみた1〜文章生成機能編〜 - Qiita>https://qiita.com/milky04/items/24d7d2abf90e90417d93]] 2022.7

-[[【備忘録】Pythonで自然言語処理の学習を始めるにあたって参考にしたサイト - Qiita>https://qiita.com/ama_aki/items/59aa012db7b5ce81f6e5]] 2022.7
--GPT2, GPT3
-[[GPT-2を使ってポケモン図鑑の説明文生成器を作ってみた - Qiita>https://qiita.com/Napier1550/items/0edf1613ef4f213dc875]] 2022.5


**ChatGPT [#cdb422ff]
-[[GitHub - openai/openai-cookbook: Examples and guides for using the OpenAI API>https://github.com/openai/openai-cookbook]] 2023.1

-[[GitHub - f/awesome-chatgpt-prompts: This repo includes ChatGPT prompt curation to use ChatGPT better.>https://github.com/f/awesome-chatgpt-prompts]] 2023.1

-[[ChatGPTのヤバさは、論理処理が必要と思ったことが確率処理でできるとわかったこと - きしだのHatena>https://nowokay.hatenablog.com/entry/2023/01/10/142544]] 2023.1

-[[IDEにChatGPTを統合、「この関数のテストコードはどこ?」「XXXを実装するならどう書けばいい?」など、AIでコードと対話できる「qqbot」登場 − Publickey>https://www.publickey1.jp/blog/23/idechatgptxxxaiqqbot.html]] 2023.1

-[[ChatGPTはソフトウェアエンジニアリングを変えるだろう ― しかし、あなたが望んでいるような仕方ではない | AI専門ニュースメディア AINOW>https://ainow.ai/2023/01/10/271486/]] 2023.1

-[[Best ChatGPT Resources 101>https://enchanting-trader-463.notion.site/Best-ChatGPT-Resources-101-94a7c6dbabcc4febbfb498c555d6ef5f]] 2023.1

-[[ChatGPTでの英文校正というチート:使い方・注意点まとめ - Riklog>https://riklog.com/research/chatgpt/]] 2023.1
-[[【活用事例】ChatGPTを利用したプログラミングの効率化 | ジコログ>https://self-development.info/%e3%80%90%e6%b4%bb%e7%94%a8%e4%ba%8b%e4%be%8b%e3%80%91chatgpt%e3%82%92%e5%88%a9%e7%94%a8%e3%81%97%e3%81%9f%e3%83%97%e3%83%ad%e3%82%b0%e3%83%a9%e3%83%9f%e3%83%b3%e3%82%b0%e3%81%ae%e5%8a%b9%e7%8e%87/]] 2023.1

-[[Running ChatGPT Locally using Docker Desktop - DEV Community 👩‍💻👨‍💻>https://dev.to/docker/running-chatgpt-locally-using-docker-desktop-2i31]] 2023.1

-[[ChatGPT使い方総まとめ - Qiita>https://qiita.com/sakasegawa/items/82069c97a1ee011c2d1e]] 2022.12

-[[PyChatGPT: Python Client for The Unofficial ChatGPT API>https://morioh.com/p/337c1ffce36f?f=5c21fb01c16e2556b555ab32&fbclid=IwAR0VVh_-6ylrLBW47Jvz1UryAzivBZAan2ciiIcsN36EkA-8GznqzkBIxvU]] 2022.12

-[[高度なチャットボット「ChatGPT」は検索エンジンを置き換える!!Googleは創業以来の危機に直面 | Emerging Technology Review>https://etechnologyreview.com/2022/12/16/%e9%ab%98%e5%ba%a6%e3%81%aa%e3%83%81%e3%83%a3%e3%83%83%e3%83%88%e3%83%9c%e3%83%83%e3%83%88%e3%80%8cchatgpt%e3%80%8d%e3%81%af%e6%a4%9c%e7%b4%a2%e3%82%a8%e3%83%b3%e3%82%b8%e3%83%b3%e3%82%92%e7%bd%ae/]] 2022.12

-[[ChatGPTさんに企画候補・企画書の生成・コーディングまでやってもらった (小説風) - Qiita>https://qiita.com/alclimb/items/91d9183aed12fd6db4f8]] 2022.12

-[[ChatGPT 人間のフィードバックから強化学習した対話AI>https://www.slideshare.net/ShotaImai3/chatgpt-254863623]] 2022.12

-[[話題爆発中のAI「ChatGPT」の仕組みにせまる! - Qiita>https://qiita.com/omiita/items/c355bc4c26eca2817324]] 2022.12

-[[ChatGPTにおけるチャットログの自動保存【Python】 | ジコログ>https://self-development.info/chatgpt%e3%81%ab%e3%81%8a%e3%81%91%e3%82%8b%e3%83%81%e3%83%a3%e3%83%83%e3%83%88%e3%83%ad%e3%82%b0%e3%81%ae%e8%87%aa%e5%8b%95%e4%bf%9d%e5%ad%98%e3%80%90python%e3%80%91/]] 2022.12
-[[PythonからChatGPTにアクセスできるPyChatGPTのインストール | ジコログ>https://self-development.info/python%e3%81%8b%e3%82%89chatgpt%e3%81%ab%e3%82%a2%e3%82%af%e3%82%bb%e3%82%b9%e3%81%a7%e3%81%8d%e3%82%8bpychatgpt%e3%81%ae%e3%82%a4%e3%83%b3%e3%82%b9%e3%83%88%e3%83%bc%e3%83%ab/]] 2022.12

-[[ChatGPTはどのように学習を行なっているのか>https://zenn.dev/ttya16/articles/chatgpt20221205]] 2022.12

-[[ChatGPTを速報解説してみた - 神戸のデータ活用塾!KDL Data Blog>https://kdl-di.hatenablog.com/entry/Bulletin-ChatGPT]] 2022.12

-[[ChatGPT使い方総まとめ - Qiita>https://qiita.com/sakasegawa/items/82069c97a1ee011c2d1e]] 2022.12



*形態素解析/構文解析 [#l8b0b3e6]

-[[Pythonを使った、形態素解析器での読みの取得 - estie inside blog>https://inside.estie.co.jp/entry/2022/11/09/110000]] 2022.11

-[[Pythonでかな漢字変換 mozcpy の紹介 - Qiita>https://qiita.com/yukinoi/items/000f6fe4560799378dc0]] 2022.8

-[[AWS Lambda で形態素解析〜句を詠めば鐘が鳴るなりスッコココ〜 - estie inside blog>https://inside.estie.co.jp/entry/20220819]] 2022.8

-[[日本語形態素解析 - Yahoo!デベロッパーネットワーク>https://developer.yahoo.co.jp/webapi/jlp/ma/v1/parse.html]]


**GiNZA [#rd078b51]
-[[日本語自然言語処理オープンソースライブラリ「GiNZA」で構文解析をやってみた | DevelopersIO>https://dev.classmethod.jp/articles/try-parsing-using-ginza/]] 2022.12
-[[【Python】GiNZA: 日本語自然言語処理オープンソースライブラリ - Qiita>https://qiita.com/BUU-SAN/items/a511981df820e07e015b]] 2022.7


**MeCab [#hce9b9e9]
-[[MeCabを使った575判定 - estie inside blog>https://inside.estie.co.jp/entry/2022/11/10/110000]] 2022.11

-[[MeCab互換な形態素解析器Vibratoの高速化技法 - LegalForce Engineering Blog>https://tech.legalforce.co.jp/entry/2022/09/20/133132]] 2022.9

-[[python MeCab で listの文章を一部を取り出し機械学習 - Qiita>https://qiita.com/TaichiEndoh/items/10b26ccb7ec8609c0d54]] 2022.8
-[[PythonでMeCabを使う際のメモ - Qiita>https://qiita.com/smiler5617/items/0744c256841875824ed2]] 2022.7
-[[MeCabで形態素解析すれば品名の表記が異なっても一向にかまわんッッ - CUEBiC TEC BLOG>https://cuebic.hatenablog.com/entry/2022/06/28/090000]] 2022.6
-[[MeCab>http://mecab.sourceforge.net/]]
--MeCabは 京都大学情報学研究科−日本電信電話株式会社コミュニケーション科学基礎研究所共同研究ユニットプロジェクトを通じて開発されたオープンソース形態素解析エンジンです. 言語, 辞書,コーパスに依存しない汎用的な設計を基本方針としています. パラメータの推定に Conditional Random Fields (CRF) を用いており, ChaSenが採用している隠れマルコフモデルに比べ性能が向上しています。また、平均的に ChaSen, Juman, KAKASIより高速に動作します.



* ワードクラウド [#w5a83eca]
-[[ノーコードで、いろんな見た目の「Word Cloud」を描かせる(Google Colab使用) - Qiita>https://qiita.com/hima2b4/items/8958ee0ff2618b9b4cb9]] 2022.8

-[[Twitter可視化システムを作ってみたら日本に笑顔が溢れていた話 - NTT Communications Engineers' Blog>https://engineers.ntt.com/entry/2022/06/20/111744]] 2022.6
-[[ワードクラウドでよろしく ザ・ベスト – プログラマーやめました>https://www.premium-tsubu-hero.net/wordcloud-yoroshiku-thebest/]] 2022.6
-[[WordCloudを使って父の日プレゼントを探す – プログラマーやめました>https://www.premium-tsubu-hero.net/wordcloud-chichinohi/]] 2022.5
-[[ワードクラウド>https://okumuralab.org/~okumura/python/wordcloud.html]] 2019


* Transformer [#e422cd4b]
-時系列処理が必要なRNNは並列化と相性が悪いのでAttentionに全振りしたのがTransformer
-自己注意機能により系列データを一括同時処理可能になった。RNNでは逐次計算が必要、また離れた単語の関係づけできず長文理解が難しかった。
--GPUフレンドリで容易に並列化可能→学習の高速化、劇的な学習時間短縮を実現
--入力シーケンス全体を考慮可能
--CV(Computer Vision)タスクへの応用もあり→画像認識/検出/トラッキング

-[[「Transformer」の仕組み──AIによる画像・動画生成や自然言語処理で話題の深層学習モデルを理解する (1/3)|CodeZine(コードジン)>https://codezine.jp/article/detail/16860]] 2022.12

-[[Vision Transformer入門をもっと楽しむために - Speaker Deck>https://speakerdeck.com/sei88888/vision-transformerru-men-womotutole-simutameni]] 2022.12

-[[Transformerのモデル、"T5"について調べてみました! - CCCMKホールディングス TECH Labの Tech Blog>https://techblog.cccmk.co.jp/entry/2022/12/13/125045]] 2022.12

-[[Hugging Face Courseで学ぶ自然言語処理とTransformer 【part1】>https://zenn.dev/ttya16/articles/ce89dcab833d32cadb39]] 2021.6
--[[Hugging Face Courseで学ぶ自然言語処理とTransformer 【part2】>https://zenn.dev/ttya16/articles/329ec9e7c79634893271]] 2021.6
--[[Hugging Face Courseで学ぶ自然言語処理とTransformer 【part3】>https://zenn.dev/ttya16/articles/8b9d19d87065c579bccb]] 2021.7
--[[Hugging Face Courseで学ぶ自然言語処理とTransformer 【part4】>https://zenn.dev/ttya16/articles/3c51001f9e6d4b0ecc0b]] 2021.7
--[[Hugging Face Courseで学ぶ自然言語処理とTransformer 【part5】>https://zenn.dev/ttya16/articles/0e3e1bff645f161fb4d7]] 2021.7


-[[図で理解するTransformer - Qiita>https://qiita.com/birdwatcher/items/b3e4428f63f708db37b7]] 2021.5

-[[[2207.09238] Formal Algorithms for Transformers>https://arxiv.org/abs/2207.09238]] 2022.7

-[[CS25 I Stanford Seminar - Transformers United: DL Models that have revolutionized NLP, CV, RL - YouTube>https://www.youtube.com/watch?v=P127jhj-8-Y&list=PLoROMvodv4rNiJRchCzutFw5ItR_Z27CM]] 2022.7

-[[Transformerの最前線 〜 畳込みニューラルネットワークの先へ 〜 - Speaker Deck>https://speakerdeck.com/yushiku/20220608_ssii_transformer]] 2022.7

-[[自然言語処理の必須知識 Transformer を徹底解説! | DeepSquare>https://deepsquare.jp/2020/07/transformer/]] 2022.3

-[[深層学習界の大前提Transformerの論文解説! - Qiita>https://qiita.com/omiita/items/07e69aef6c156d23c538]] 2019
--アーキテクチャのポイントは以下の3つだよ。
---エンコーダー-デコーダモデル
---Attention
---全結合層
--NLPの最近のSoTAたち(BERT,XLNet,GPT-2など)のベースとなるモデル だから理解必須

**Attention [#i003e997]

-[[Pay Attention To 生成モデル - Qiita>https://qiita.com/maechanneler/items/7fa7255e73c02bff490e]] 2022.9

-[[最近のDeep Learning (NLP) 界隈におけるAttention事情>https://www.slideshare.net/yutakikuchi927/deep-learning-nlp-attention]] 2022.3

-[[作って理解する Transformer / Attention - Qiita>https://qiita.com/halhorn/items/c91497522be27bde17ce]] 2018

-[[[1706.03762] Attention Is All You Need>https://arxiv.org/abs/1706.03762]] 2017


**PaLM [#eff95934]
-超大規模Transformerモデル、コーディングタスクや多言語タスクでも高い性能

-[[Googleは世界最大規模のAI言語モデル「PaLM」を開発、言葉を理解する機能が格段に向上、人間のように論理的に考えジョークのオチを説明する | Emerging Technology Review>https://etechnologyreview.com/2022/04/29/google%E3%81%AF%E4%B8%96%E7%95%8C%E6%9C%80%E5%A4%A7%E8%A6%8F%E6%A8%A1%E3%81%AEai%E8%A8%80%E8%AA%9E%E3%83%A2%E3%83%87%E3%83%AB%E3%80%8Cpalm%E3%80%8D%E3%82%92%E9%96%8B%E7%99%BA%E3%80%81%E8%A8%80/#:~:text=Google%E3%81%AF%E4%B8%96%E7%95%8C%E5%A4%A7%E8%A6%8F%E6%A8%A1,%E3%83%96%E3%83%AC%E3%83%BC%E3%82%AF%E3%82%B9%E3%83%AB%E3%83%BC%E3%82%92%E9%81%94%E6%88%90%E3%81%97%E3%81%9F%E3%80%82]] 2022.7


* BERT [#c4fb7787]
-Transformerから発展。大量の汎用テキストデータで事前学習→タスクに合わせて追加学習
-文章のマスクと復元という自己教師学習によりラベルなし文章を学習に適用可能
-双方向モデル、単語の前後から文脈を把握

-[[自然言語処理モデル(BERT)で文の意味上の類似度を計算 | GMOアドパートナーズ TECH BLOG byGMO>https://techblog.gmo-ap.jp/2022/12/21/bert_calc_sentence_similarity/]] 2022.12

-[[BERT 自然言語解析手法の変遷について - MONEX ENGINEER BLOG │マネックス エンジニアブログ>https://blog.tech-monex.com/entry/2022/08/19/183846]] 2022.8

-[[【やってみた】BERTにブログの特徴を教えてもらってみた - 神戸のデータ活用塾!KDL Data Blog>https://kdl-di.hatenablog.com/entry/2022/08/08/090000]] 2022.8

-[[文章からLGTM数を予測して「バズる記事」を判別してみた - Qiita>https://qiita.com/pyopp8128/items/2cb0edabaf94e9385871]] 2022.6
--BERTのファインチューニングにより、Qiita中の記事がLGTM>100かどうか判別する2クラス分類深層学習モデルを作成したよ

-[[BERT入門>https://www.slideshare.net/matsukenbook/bert-217710964]] 2022.6

-[[BERT Research - Ep. 1 - Key Concepts & Sources - YouTube>https://www.youtube.com/watch?v=FKlPCK1uFrc]] 2019
-[[自然言語処理モデル「BERT」の日本語版事前学習モデルが無償公開 商用利用も可>https://ledge.ai/bert-free-learning-model-in-japanese/]] 2022.4
--[[インフォマティクス、BERT日本語版事前学習モデルを公開|株式会社インフォマティクスのプレスリリース>https://prtimes.jp/main/html/rd/p/000000068.000034332.html]] 2022.4
--[[GitHub - informatix-inc/bert>https://github.com/informatix-inc/bert]]

-[[BERTとベクトル検索を用いたYahoo!ショッピングの製品名寄せ作業の効率化検証 - Yahoo! JAPAN Tech Blog>https://techblog.yahoo.co.jp/entry/2022040630294096/]] 2022.4
-[[BERTを用いて文章の穴埋め問題を解く - Qiita>https://qiita.com/kai_notebook/items/58048b027ae48cb700cb]] 2022.3




* Word2Vec [#y4b94d4f]
-[[自然言語処理の必須知識!Word2Vec とは? | キカガクの技術ブログ>https://blog.kikagaku.co.jp/word2vec]] 2022.12

-[[青空文庫の全小説でword2vecしてみる - Qiita>https://qiita.com/sheep96/items/1995a3eacfc0be317a08]] 2022.7

-[[BERT vs Word2Vec 〜単語分散表現による同義語抽出〜 - Qiita>https://qiita.com/chicken_data_analyst/items/15c0046062c6e016f467]] 2022.7

-[[Word2Vecを用いたタンパク質の分散表現 - Qiita>https://qiita.com/kuro3210/items/aa45753d301dfc13811b]] 2022.4
-[[【転職会議】クチコミをword2vecで自然言語処理して会社を分類してみる - Qiita>https://qiita.com/naotaka1128/items/2c4551abfd40e43b0146#2-gensim-%E3%81%A7-doc2vec-%E3%81%AE%E3%83%A2%E3%83%87%E3%83%AB%E6%A7%8B%E7%AF%89]] 2016
-[[【word2vec】会社のクチコミを自然言語処理した結果を可視化してみる - Qiita>https://qiita.com/naotaka1128/items/e617f63907fed035408a]] 2017


* 文字起こし [#y28ad435]
-[[アマゾンのAWSで音声の文字起こしサービスを無料で試してみた | Ledge.ai>https://ledge.ai/amazon-transcribe-try/]] 2021.11
-- Amazon Transcribe

-[[アマゾンのAWSでテキストを解析してみた>https://ledge.ai/amazon-comprehend-try/]]
--Amazon Comprehendは、機械学習を使用してテキスト内のインサイトや関係性を検出できる自然言語処理(NLP)サービスです。キーフレーズ抽出、感情分析、実体認識、トピック形成、言語検出 API の利用ができ、アプリケーションへの統合もできます。


*音声読み上げ [#ve686411]
-[[VOICEPEAKの音声にほぼドンピシャの字幕ファイルを作成するPythonスクリプト - Qiita>https://qiita.com/mochi_gu_ma/items/a5a9d59865062c7479d3]] 2022.3
-[[入力文字読み上げソフト『VOICEPEAK』を試してみた | DevelopersIO>https://dev.classmethod.jp/articles/tried-using-voicepeak/]] 2022.3

トップ   新規 一覧 検索 最終更新   ヘルプ   最終更新のRSS