週刊3分AIニュース #30:NTT、軽量で高機能な大規模言語モデル「tsuzumi」を発表。来年3月にサービス開始
忙しいあなたのために最近のAIニュースや有益AI情報を3分でキャッチアップできるようにお届け
こんにちは、日々AIデータサイエンスについて発信しているウマたんです。
先週は僕が運営するスタビジにて、
・過去ディープラーニングの進化のブレークスルーになった重要なアプローチ「オートエンコーダ」
オートエンコーダ(autoencorder)について分かりやすく解説しPython実装!
・品質管理の分野においてよく用いられる実験計画法
実験計画法(DOE)について分かりやすく解説!Pythonで実際に実装!
・最適なパラメータを求める際に用いられる最小二乗法
最小二乗法の導出方法について分かりやすく解説!
について解説しました!
ぜひチェックしてみてください!
また、多変量解析の一種である共分散構造分析について動画で解説しました!
こちらもあわせてチェックしてみてください!
それでは本日も最近のAIニュースを振り返る週刊3分AIニュース!いってみましょう!
1.NTT、軽量で高機能な大規模言語モデル「tsuzumi」を発表。来年3月にサービス開始
ついにNTTからも!
日本電信電話株式会社(NTT)が、軽量ながら世界トップレベルの日本語処理性能を持つ大規模言語モデル(LLM)「tsuzumi」を発表しました!
その詳細は以下の通り。
”tsuzumiは、NTTの研究所が40年以上にわたる自然言語処理の研究蓄積をもとに開発したLLM。従来のLLMが直面する電力やコスト増加といった課題を解決するために設計されており、軽量でありながら高い処理能力を有しているという。また、日本語と英語に対応し、特に日本語処理において高い性能を謳っている。同社が実施した生成AI向けのベンチマーク「Rakuda」による日本語性能比較では、GPT-3.5や国産トップのLLM群を上回る性能が確認されたという。”
また、tuzumiは軽量モデルとしてパラメータサイズが6億の超軽量版と70億の軽量版が用意されているとのこと!
コストを大幅に削減できているだけでなく、他のLLMを上回る性能が確認されているのはすごいですね!
サービス開始が楽しみです!
https://pc.watch.impress.co.jp/docs/news/1543779.html
2.MIT、人間のパイロットの見落としを補う「Air-Guardian」を開発——既存AIを凌駕する基礎技術「LNN」とは
マサチューセッツ工科大学(MIT)の科学者らが、ディープラーニング(深層学習)システム「Air-Guardian」を開発したそう!
このAI は、人間のパイロットが危機的状況を見落としたときにそれを検知し、事故を防ぐ働きをしてくれるとのこと!
Air-Guardianの詳細は以下の通り。
”Air-Guardian は飛行の安全性を高めるためにユニークな方法を採用している。人間のパイロットの注意力と AI の集中力の両方を監視し、両者が一致しない場合を特定する。人間のパイロットが重要な点を見落とした場合、AI システムが介入し、その特定の飛行要素を制御する。”
またAir-Guardianの基盤として、従来の深層学習手法よりもブラックボックス化しにくいLNN(Liquid Neural Networks)が用いられているそう!
航空機事故では命を落とす確率がほとんど100%に近いですから、このようなシステムの力も借りて、事故発生のリスクを限りなく0に近づけて欲しいですね!
さらに、今回のシステムの基盤となっているLNNの活用事例も今後増えていくかもしれません!
https://thebridge.jp/2023/10/mit-copilot-system-can-set-the-stage-for-a-new-wave-of-ai-innovation
3.国内自治体初 国産生成AI導入へ NECと相模原市が協定締結
NECは、自治体業務における生成AIの活用に向けて相模原市と協定を締結し、11月から相模原市役所の一部の部門での活用検証を行うと発表しました!
詳細は以下の通り。
”検証ではNECの開発したLLMを用いて、自治体業務に特化したモデルを構築し、有用性をテストする。職員の業務プロセス改善や問題解決に焦点を当て、例規や庁内QAの探索の効率化など、具体的なユースケースの検証を行う。”
「自治体業務に特化したモデルを構築する」というのが、国内産の強みを活かせていて良いですね!
地方自治体ではこういった新技術の活用は少し遅れているようなイメージがあるので、
この相模原市の取り組みを機に、全国各地の自治体にも広がっていって欲しいですね!
https://ledge.ai/articles/nec_sagamihara_ai
4.オルツが環境負荷低減の軽量型LLM「LHTM-OPT」開発 日本語LLM最高性能を記録
またしても国内産の生成AIが!
オルツは、パラメータ数が最適化された軽量型大規模言語モデル(LLM)「LHTM-OPT」を開発し、日本語商用プライベートLLMとして最高性能を記録したと発表しました!
その詳細は以下の通り。
”LHTM-OPTはRakudaベンチマークとJGLUEで高スコアを達成。自動質問応答、議事録要約、情報抽出などの高度な処理が必要な問題に対応可能なアプリケーションを実装予定だ。クライアントはLHTM-OPTを専門分野でカスタマイズ可能で、GPUコストの節約と回答精度の最適化というメリットを得られる。”
やはり国産であると、日本語の処理能力やモデルのカスタマイズといった点で他のLLMより使い勝手が良いですから、今後も増えていって欲しいですね!
https://alt.ai/news/news-2300/
5.文章解析AIのストックマーク、「幻覚」を抑制した130億パラメータの独自LLMをオープンソース公開
またしても国内産生成AI開発のニュースが!
企業向け文章解析 AI を開発・提供するストックマークは、「AWS LLM 開発支援プログラム」を活用し、日本語単独としては最大規模となる130億パラメータを持った LLM「Stockmark-13b」を公開しました!
その詳細は以下の通り。
”元にするデータには、同社が独自に収集しているビジネスに関連するオープン情報や特許情報なども含まれるため、ビジネス上の質問に対し「ハルシネーション(幻覚)」を抑制し、他の LLM よりも高精度な回答が期待できるという。また、ChatGPT と比較して、テキスト生成が約4倍の速度で回答できる。”
国内産生成AI開発の勢いが止まりませんね!
ただし、「少ないパラメータ数でコスパの良い生成AI」が現在のトレンドといったところでしょうか。
いずれはChatGPTのような、パラメータを数千億個持つ国内産LLMの登場も徐々に増えてくるでしょうか!
今後の国産生成AI開発の動向に注目です!
https://thebridge.jp/2023/10/stockmark-launches-llm-with-13b-parameters
いかがだったでしょうか?毎週月曜日に情報をお届けするので、ご購読していない人はこの機会にぜひご購読を。
Subscribed
役立った!と思ったら周りの人にシェアいただけると嬉しいです。
AIの詳しい理論や実装方法を学びたい方へ
このニュースレターでは最新のニュースやツールについて発信していきます。
AIの詳しい理論や実装方法が知りたい方はぜひWebメディア「スタビジ」やWebスクール「スタアカ」をチェック!
それではまた来週!