タグ 推論
人気順 10 users 50 users 100 users 500 users 1000 usersOpenAIが推論能力を大幅に強化した「o3」シリーズを発表、 推論の中でOpenAIの安全ポリシーについて「再考」する仕組みを導入
OpenAIが12日間連続で発表を行うイベント「12 Days of OpenAI」の最終日である2024年12月20日(金)に、新しい推論AIモデル「o3」シリーズを発表しました。OpenAIによると、o3シリーズやo1シリーズには「deliberative alignment(熟慮的調整)」という新しい安全性訓練手法が組み込まれているとのことです。 Early access fo... 続きを読む
米OpenAI、新たなAIモデル「o3」発表 「AGI」に最も近い性能に
o3は、高度な推論が可能な「o」シリーズの最新AIモデルで、o1の次世代モデルに当たる。o3の他にも、小型モデルに当たる「o3-mini」も開発。o3-miniは、o3よりも思考時間が短く、コスト効率も優れているという。同社はまず、2025年1月末ごろにo3-miniから一般提供を始める予定だ。 関連記事 ChatGPTに“月額3万円”の新有料... 続きを読む
Google、生成AIを支える新TPU「Trillium」の一般提供開始
米Googleは12月11日(現地時間)、同社の第6世代TPU(Tensor Processing Unit)、「Trillium」のGoogle Cloudでの一般提供開始を発表した。Trilliumは今年のGoogle I/Oで予告していたTPUだ。 TPUは、Googleが開発した特定用途向け集積回路(ASIC)で、AIモデルのトレーニングや推論に最適化されている。Trilliumは同日発... 続きを読む
OpenAI o1の開発者がo1の仕組みなどについて語るインタビュー(日本語訳と感想)|IT navi
ソーニャ・ホアン: 本日はノーム、ハンター、イルゲをお迎えしました。3人はOpenAIのプロジェクト・ストロベリー、別名o1の研究者です。o1はOpenAIが初めて本格的に取り組んだ汎用推論時計算で、推論、思考連鎖、推論時スケーリング則などについてチームと話し合うのを楽しみにしています。 o1への確信ソーニャ・ホアン:... 続きを読む
「現在のLLMに真の推論は困難」──Appleの研究者らが論文発表
米AppleのAI研究者らは10月7日(現地時間)、「GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models」(LLMにおける数学的推論の限界を理解する)という論文を発表した。 この論文は、LLM(大規模言語モデル)が、本当に人間のように論理的に考えて問題を解けるのか、とい... 続きを読む
LLMの論理的推論を強化する新技術「Logic-of-Thought(LoT)」 従来のChain-of-Thought(思考の連鎖)の「不忠実な推論」問題解決を目指す | Ledge.ai
Top > 学術&研究 > LLMの論理的推論を強化する新技術「Logic-of-Thought(LoT)」 従来のChain-of-Thought(思考の連鎖)の「不忠実な推論」問題解決を目指す 続きを読む
RAG-LLMシステムへのユーザークエリは4つのレベルに分類できる 最も複雑なのは「隠れた根拠からの推論が必要なクエリ」Microsoftによる研究 | AIDB
以下では、クエリのタイプ別に、概要と課題そして解決策を列挙していきます。 クエリタイプ1. 明示的事実クエリ 明示的事実クエリは、質問の中で最も簡単なタイプです。与えられた文書や文書の一部から直接答えを見つけることができます。多くの場合、答えは文書の中にはっきりと書かれていて、難しい推論をしなくても答... 続きを読む
OpenAIが新モデル「o1-preview」の思考内容を出力させようとしたユーザーに警告
複雑な推論を行えるOpenAIのモデル「o1-preview」では「思考の連鎖(chain of thought)」プロセスを挟むことで推論の精度を高めています。思考の連鎖プロセスの中身は非公開ですが、ユーザーの中には何とかして中身を出力させようとする人もいます。OpenAIがそうしたユーザーに対し警告を行っていることが明らかになりま... 続きを読む
コード生成・数学・推論の能力が大幅に向上した「Mistral Large 2」をMistral AIがリリース
フランスのAI開発企業・Mistral AIが、新世代の主力モデル「Mistral Large 2」を2024年7月24日に発表しました。Mistral Large 2は、コード生成、数学、推論能力が大幅に向上したほか、128kのコンテキストウィンドウを持ち、数十種類の言語やプログラミング言語にも対応しています。 Large Enough | Mistral AI | Frontie... 続きを読む
TypeScript v4.9からv5.5で追加された機能のおさらい - STORES Product Blog
STORES 予約 エンジニアの水野です。STORES 予約 の店舗管理画面で利用しているTypeScriptをv4.8からv5.5にアップグレードしたので追加された主な機能をおさらいしようと思います。 satisfies (v4.9) v4.9で実装されました。 型アノテーションのように型付けしつつ型推論も行う演算子です。 例を見てみましょう。 type C... 続きを読む
LLMエージェントの設計16パターン | AIDB
LLMエージェントの設計は課題が多い上に分類が整理されていません。なお課題としてはハルシネーション(誤った情報の生成)の存在や推論の道筋が不明瞭な点などが挙げられています。 今回研究者らは、基盤モデルを使ったエージェントの設計パターン16種類をまとめました。例えば、エージェントが目標をどうやって設定す... 続きを読む
明示的な型注釈によって推論コストを下げるというアプローチ
近年、TypeScript を取り巻くエコシステムでは、ユーザーに明示的な型注釈を求めることで、推論や型生成のコストを下げるというアプローチが注目されています。TypeScript 5.5 beta で 発表された --isolatedDeclarations オプションはその代表的な機能ですし、Deno の提供する新しいパッケージレジストリ JSR が提唱し... 続きを読む
M1MacでOllamaを試したら爆速で驚いた
はじめに いつもNVIDIAが載っているWindowsで楽しくLLMを動かしたり生成AIライフを楽しんでいますが、今回はMacOSでOllamaを入れてLlama3を動かしてみました。 スペック: Apple M1 Pro(16 GB) 少し前だとCUDAのないMacでは推論は難しい感じだったと思いますが、今ではOllamaのおかげでMacでもLLMが動くと口コミを見かけ... 続きを読む
ChatGPTを10倍以上高速化、秒速1,000兆回の演算ができるAIチップを開発 シリコンバレーで注目されるAIスタートアップGroqとは | AMP[アンプ] - ビジネスインスピレーションメディア
NVIDIAに対抗するAIスタートアップGroqとは? NVIDIAが驚異的な決算を記録する中、シリコンバレーで密かに注目を集めているスタートアップがある。大規模言語モデル(LLM)の推論に特化したAIチップ「言語処理ユニット(LPU)」を開発するGroqだ。 VentureBeat(2024年2月23日)の報道によると、Groqは「年末までに、(... 続きを読む
飲み屋で隣の席にいる、おそらくまだ付き合っていないカップルの男性「この前は酔って電話しちゃってごめんね」→女性の反応がえっち過ぎた
sho_yokoi @sho_yokoi (理解|納得)のための(説明|正当化|推論|議論)を担う(言語|知識)の数理と上達の方法論とインセンティブデザインとアナログゲームに興味があります。En: @sho_yokoi_ cl.ecei.tohoku.ac.jp/~yokoi/ sho_yokoi @sho_yokoi 飲み屋で隣の席にいる、おそらくまだ付き合っていないカップルの男性「この前... 続きを読む
1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も
1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も 2024.02.28 Updated by Ryo Shimizu on February 28, 2024, 16:46 pm JST 2月は中国では春節というお正月があり、春節にはみんな休む。 それもあってか、12月から1月にかけて怒涛の論文発表が行われて毎日「デイリーAIニュース」を配信... 続きを読む
1つのGPU/CPUで推論可能な超軽量LLM「tsuzumi」を24年3月から提供へ
1つのGPU/CPUで推論可能な超軽量LLM「tsuzumi」を24年3月から提供へ:学習コストは「GPT-3」の300分の1に(1/2 ページ) NTTが、独自開発した大規模言語モデル(LLM)「tsuzumi」を2024年3月から提供開始する。tsuzumiは、パラメーターサイズが6億または70億と軽量でありながら、世界トップクラスの日本語処理性能を持... 続きを読む
Appleは大規模言語モデルをiPhone上でローカルに動作させることを目指している
Appleの研究者が「LLM in a flash: Efficient Large Language Model Inference with Limited Memory」と題した論文をプレプリントサーバーのarXivに公開しました。この論文では「メモリが限られたデバイス上で大規模言語モデル(LLM)の推論を効果的に行う道を開く解決策」、すなわちiPhoneなどのデバイス上でLLMを動作さ... 続きを読む
有害事象報告ベースでは因果関係の推論はできない - NATROMのブログ
平岡厚さんとHPVワクチンの安全性に関する対話をはじめたわけ 2023年8月からX(旧Twitter)にて、元杏林大学保健学部准教授の平岡厚さんと対話を続けています。平岡さんは『HPVワクチン論争を再考する 推進派の主張の問題点を中心に』といった和文論文にて「HPVワクチンの深刻な副反応・薬害としての自己免疫性脳症が、... 続きを読む
[速報]マイクロソフト、独自設計のAIチップ「Azure Maia」発表。AIの学習と推論に最適化。Ignite 2023
マイクロソフトは開催中の年次イベント「Microsoft Ignite 2023」で、AIの学習や推論処理を高速に実行可能な独自設計のAIアクセラレータチップ「Azure Maia」を発表しました。 「これは5ナノメータプロセスで製造され、1050億のトランジスタで構成される、現在の技術では最大規模のチップの1つだ。そしてチップのみなら... 続きを読む
LINEの3.6B言語モデルで遊んだら爆笑した|shi3z
LINEから36億(3.6B)パラメータの大規模言語モデル(LLM)が公開されたので早速遊んでみた。正確には遊んだのは昨日のデイリーAIニュースなのだが、面白かったのでこちらにも転載する。 細かいやり方は大先生のページを参照のこと。 例によってこんな関数を書いた def line(prompt): # 推論の実行 input_ids = tokenizer.en... 続きを読む
Windows 11 の WSL で GPU を使って rinna InstructGPT - nownab.log
はじめに 最近、念願のつよつよ GPU がついた PC を新調して WSL で環境構築を頑張っている。今回は GPU を使った LLM の推論を試した。 ここでの GPU は NVIDIA のもので、GPU の環境構築は WSL で CUDA を使えるようにすることを意味する。また、WSL の Distribution は Ubuntu-22.04。 LLM としては rinna 社の日本語... 続きを読む
Azure OpenAI Service の REST API リファレンス - Azure OpenAI
この記事では、Azure OpenAI の推論 REST API エンドポイントについて詳しく説明します。 認証 Azure OpenAI には、2 つの認証方法が用意されています。 API キーまたは Azure Active Directory のいずれかを使用できます。 API キー認証: この種類の認証の場合、すべての API 要求で、api-key HTTP ヘッダーに API キー... 続きを読む
Googleの対話型AI「Bard」がバックグラウンドでコードを実行できるようにする「暗黙的なコード実行」を導入、文字列の操作や論理・推論を含む複雑なタスクに対する回答精度が向上
Googleが2023年2月に発表し、同年3月に一般公開を開始した対話型AIが「Bard」です。GoogleがこのBardにバックグラウンドでコードを実行し、数学的なタスクやコーディングの質問、文字列操作に関するプロンプトに対して正確に応答できる「implicit code execution(暗黙的なコード実行)」と呼ばれる手法を導入したと、現地... 続きを読む
Googleの生成型AI「Bard」、論理と推論で機能向上 スプレッドシートへのエクスポートも可能に
Googleは、チャットAI「Bard」の数学的なタスクの処理機能を向上させた。従来より30%精度が上がったとしている。また、Bardで作成した表組みをGoogleスプレッドシートにエクスポートできるようになった。 米Googleは6月7日(現地時間)、チャットAI「Google Bard」の数学的なタスク、コーディング、文字列操作の機能を... 続きを読む