はてブログ

はてなブックマーク新着エントリーの過去ログサイトです。



タグ パラメータ

新着順 人気順 5 users 10 users 50 users 100 users 500 users 1000 users
 
(1 - 25 / 231件)

PICTでEmacsからテストケースを生成する - Qiita

2024/12/14 このエントリーをはてなブックマークに追加 7 users Instapaper Pocket Tweet Facebook Share Evernote Clip pict emacs コマンドラインツール Qiita 手法

ペアワイズ法(またはオールペア法)という、パラメータが多いテスト対象のパラメータをいい感じに生成してくれる手法と、その考えをもとにパラメータを生成してくれるPICTというコマンドラインツールがあります。 今回はそのPICTをEmacsから使うパッケージを作ってみたよというお話をしましょう。 Emacs 29以降を使ってい... 続きを読む

Zod を使って OpenAI の構造化された出力を扱う

2024/12/07 このエントリーをはてなブックマークに追加 23 users Instapaper Pocket Tweet Facebook Share Evernote Clip OpenAI Zod スキーマ JSON Schema 出力

Zod を使って OpenAI の構造化された出力を扱う 2024.12.07 OpenAI の gpt-4o-2024-08-06 以降のモデルではパラメータとして JSON Schema を指定することで構造化された出力をサポートしています。Node.js 向けの OpenAI SDK では Zod を使ってスキーマを定義し、構造化された出力を扱うことができます。この記事では実... 続きを読む

数十億パラメータの巨大AI、“たった1つのパラメータ”を削除するだけで完全崩壊。Appleなどが研究報告(生成AIクローズアップ) | テクノエッジ TechnoEdge

2024/12/01 このエントリーをはてなブックマークに追加 237 users Instapaper Pocket Tweet Facebook Share Evernote Clip seamless TechnoEdge シームレス 論文単位

2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間の気になる生成AI技術・研究をいくつかピックアップして解説する連載「生成AIウィークリー」から、特に興味深いAI技術や研究にスポットライトを当てる生成AIクローズアップ。 ... 続きを読む

Llama 3.1 Swallow – Swallow LLM

2024/10/08 このエントリーをはてなブックマークに追加 5 users Instapaper Pocket Tweet Facebook Share Evernote Clip 重み 米Meta社 大規模言語モデル 商業目的 能力

Llama 3.1 Swallow Llama 3.1 SwallowはLlama 3.1の英語の能力を維持しながら、日本語の能力を強化した大規模言語モデル (8B, 70B) です。モデルのパラメータ(重み)がHuggingFace上で公開されていますので、Llama 3.1ライセンスに従う限り、研究や商業目的などで利用できます。Llama 3.1 Swallowは米Meta社のLlama 3.1... 続きを読む

Meta、無料で商用可の「Llama 3.1」リリース 「世界最大かつ最も高性能なオープンモデル」

2024/07/23 このエントリーをはてなブックマークに追加 23 users Instapaper Pocket Tweet Facebook Share Evernote Clip Meta LLM 商用可 米Meta リリース

米Metaは7月24日(現地時間)、“オープンソースの”LLMの最新版「Llama 3.1」を発表した。最大モデルは4050億(405B)のパラメータを持ち、米NVIDIAの1万6000個以上の「H100」でトレーニングした。Llama 3の70Bモデルと8Bモデルもアップグレードされる。 4月にリリースした「Llama 3」同様に、ほぼすべての主要クラウドサ... 続きを読む

NovelAI パラメータの調整|シトラス

2024/06/23 このエントリーをはてなブックマークに追加 9 users Instapaper Pocket Tweet Facebook Share Evernote Clip novelAI シトラス 覚え書き 各パラメータ 指示

こんにちはこんばんはおはようございます、シトラスです。 この記事は主に自分用の覚え書きです。 NovelAIでイラストを出力する際の各パラメータがどんな役割を持っているかを簡単にまとめたものです。 用語解説各種パラメータPromptプロンプトと呼ばれるAIへの指示をこのボックスに入力します。 NovelAIでは海外の画像... 続きを読む

なぜRPGのキャラクターのパラメータに視力がないのか

2024/06/21 このエントリーをはてなブックマークに追加 192 users Instapaper Pocket Tweet Facebook Share Evernote Clip 視力 RPG 影響 キャラクター

視力が戦闘行為遂行能力に決定的な影響を与えることもあるだろうに 続きを読む

IBMが自社製AI「Granite」のコード生成モデルをオープンソース化、116のプログラミング言語でトレーニングされパラメータは30~340億

2024/05/08 このエントリーをはてなブックマークに追加 11 users Instapaper Pocket Tweet Facebook Share Evernote Clip Granite IBM プログラミング言語 オープンソース化

ソフトウェアは現代社会のありとあらゆる側面に取り込まれており、飛躍的な生産性の向上や科学技術の発展に貢献してきました。しかし、信頼性の高いソフトウェアの作成・デバッグ・展開といった作業は骨が折れるものであり、熟練した開発者でも最新の技術や言語に追いつくのは大変です。そこでアメリカの大手IT企業であ... 続きを読む

Apple、iPhoneでも稼働するオープンな言語モデル「OpenELM」を公開

2024/04/25 このエントリーをはてなブックマークに追加 16 users Instapaper Pocket Tweet Facebook Share Evernote Clip iPhone OpenELM ELM Apple 言語モデル

米Appleの研究者らは4月24日(現地時間)、オープンソースの言語モデル「OpenELM」(ELMはEfficient Language Model、効率的な言語モデルの略)をHugging Faceで公開した。 パラメータ数の異なる4つのモデルがある。小さいものから、2億7000万、4億5000万、11億、30億(パラメータとは、意思決定でモデルがトレーニング... 続きを読む

1bit LLM の時代は来るのか,来ないのか,どっちなんだい?|情報処理学会・学会誌「情報処理」

2024/04/04 このエントリーをはてなブックマークに追加 9 users Instapaper Pocket Tweet Facebook Share Evernote Clip なんだい LeapMind log 徳永拓之 論文

徳永拓之(LeapMind(株)) 1bit LLMの時代が来る? 2024 年2 月,The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits¹⁾ というタイトルの論文がarXiv上で公開され,にわかに話題となりました.“1.58 Bits” という表現はあまりなじみがありませんが,log₂(3) = 1.58 . . . ということで,パラメータ... 続きを読む

Appleの研究者、マルチモーダルLLM「MM1」の論文発表 視覚タスクではGPT-4Vに匹敵

2024/03/18 このエントリーをはてなブックマークに追加 18 users Instapaper Pocket Tweet Facebook Share Evernote Clip moe MLLM マルチモーダルLLM 混合 スケール

MM1は、画像とテキストのペア、画像とテキストの混合データ、テキストのみのデータの混合でトレーニングされている。Mixture-of-Experts(MoE)や教師あり微調整でパラメータを300億までスケールアップすることで、比較的コンパクトなサイズでも競合するMLLMに匹敵する結果をベンチマークで達成したとしている。 視覚タ... 続きを読む

予実管理|福島良典 | LayerX

2024/03/05 このエントリーをはてなブックマークに追加 568 users Instapaper Pocket Tweet Facebook Share Evernote Clip 変数 LayerX 前提 発生メカニズム 予算

予実管理はなぜ大事か予算(事業計画)とは現在の事業理解を反映したものである。予算は、売上の発生メカニズムやコストの発生メカニズムをモデル化する。モデルの中には変数(パラメータ)があり、基本的にはこの変数を達成していれば、予算が自動的に達成されるという前提で作られる。つまり予算は、その時点での事業の理... 続きを読む

生産性とかGDPとかうっせーよ!:村上福之の「ネットとケータイと俺様」:オルタナティブ・ブログ

2024/02/28 このエントリーをはてなブックマークに追加 260 users Instapaper Pocket Tweet Facebook Share Evernote Clip GDP パラメーター ケータイ 村上福 指標

生産性とかGDPとかうっせーよ。いやーわかんだけどさ。GDPあってもダメな国はダメだし、GDPはもはや豊かさのパラメーターとして意味ない。早く気づけ。投資や経済のパラメータの一つで、それ以上では無い。普通に海外旅行したらわかるでしょ?GDPは大事だけど、先進国としての指標は何か別の指標が必要だし、生産性は何... 続きを読む

PostgreSQLの仕組みから学ぶために必要な資料 - そーだいなるらくがき帳

2024/01/18 このエントリーをはてなブックマークに追加 360 users Instapaper Pocket Tweet Facebook Share Evernote Clip PostgreSQL アーキテクチャ そーだい 富士通 資料

質問されることが多いのでPostgreSQL初学者が運用を行うためにしっておく知識に必要な内容をまとめる。 PostgreSQLの基本的なアーキテクチャ PostgreSQLのアーキテクチャを知らないと自分がやっている作業が危険な作業かどうかわからないし、パラメータの意味もわからない。 そこで以下のリンクを読むと良い。 富士通が... 続きを読む

Appleが、LLMのパラメータを「SSDなどの外部フラッシュメモリに保存し」PCで効率的にモデルを使用する手法を開発 | AIDB

2023/12/20 このエントリーをはてなブックマークに追加 10 users Instapaper Pocket Tweet Facebook Share Evernote Clip LLM AIDB GPU SSD CPU

マイページに保存最終更新日:2023/12/20 Appleの研究者らは、LLMのパラメータをSSDなどの外部フラッシュメモリに保存し、接続したPCなどで読み込み使用する手法を開発しました。 CPUで4-5倍、GPUで2 […] The post Appleが、LLMのパラメータを「SSDなどの外部フラッシュメモリに保存し」PCで効率的にモデルを使用する手... 続きを読む

[速報]AWS、大規模言語モデルのトレーニングに最適化した独自プロセッサ「AWS Trainium2」発表。前モデルより最大4倍のトレーニング性能。AWS re:Invent 2023

2023/11/28 このエントリーをはてなブックマークに追加 5 users Instapaper Pocket Tweet Facebook Share Evernote Clip プロセッサ ラスベガス AWS 基調講演 AWS re

Amazon Web Services(AWS)は、ラスベガスで開催中のイベント「AWS re:Invent 2023」の基調講演で、AIのトレーニングに最適化した独自プロセッサ「AWS Trainium2」を発表しました。 Trainium2は、最大数兆個のパラメータを持つ基盤モデルおよび大規模言語モデルのトレーニング用に設計されています。 2020年に発表され... 続きを読む

グラフ最適化をマスターしよう! - Qiita

2023/11/22 このエントリーをはてなブックマークに追加 76 users Instapaper Pocket Tweet Facebook Share Evernote Clip Qiita SfM ロボティクス 領域 グラフ構造

はじめに グラフ最適化(Graph Optimization)は、パラメータをグラフ構造で表現し、最適化問題を解決する手法です。特にロボティクスなどの領域で広く活用されています。 以下に、グラフ最適化の応用例をいくつか挙げます。 Visual SLAMやSFMのバンドル調整(Bundle Adjustment)問題 Graph SLAMのループクロージング問... 続きを読む

【Windows95】Pentium2搭載機にインストールして当時の世界を見てみよう【1997年のゲーミングPC】

2023/10/06 このエントリーをはてなブックマークに追加 10 users Instapaper Pocket Tweet Facebook Share Evernote Clip ゲーミングPC Windows95 フルスク 世界 喰ら

やあ、(´・ω・`)ようこそ、Windows95の世界へ。 このブルスクはサービスだから、まずは喰らって○んで欲しい。 うん、「絶対に勝てない」んだ。済まない。 仏の顔もって言うしね、謝って許してもらおうとも思っていない。 でも、このパラメータを見たとき、君は、 きっと言葉では言い表せない 「絶望」みたいなものを感... 続きを読む

Amazon Bedrockの基本情報とRuntime APIの実行例まとめ - 参考資料、モデルの特徴、価格、使用方法、トークンと推論パラメータの説明 - NRIネットコムBlog

2023/10/03 このエントリーをはてなブックマークに追加 7 users Instapaper Pocket Tweet Facebook Share Evernote Clip 小西秀和 NRIネットコムBlog トークン 自主研究 モデル

小西秀和です。 今回は2023-09-28にGeneral Availability(GA)になったAmazon Bedrockの基本情報、Runtime APIの実行例についてまとめました。また、トークンやパラメータのイメージをつかむための必要最小限の用語説明も所々入れています。 ※本記事および当執筆者のその他の記事で掲載されているソースコードは自主研究... 続きを読む

家族(プログラマ)が筆不精で返信が遅いことが多いので「とりあえず返り値をくれ」と伝えたらわりとスムーズになった

2023/10/03 このエントリーをはてなブックマークに追加 44 users Instapaper Pocket Tweet Facebook Share Evernote Clip プログラマ 返り値 Argument サブルーチン 返信

リンク IT用語辞典 e-Words 戻り値とは - IT用語辞典 戻り値【返り値 / リターン値】とは、プログラム中で呼び出された関数やメソッド、サブルーチンなどが処理を終了する際に、呼び出し元に対して渡す値。これに対し、呼び出し元から関数などに対してパラメータとして渡す値のことは「引数」(ひきすう、argument)という... 続きを読む

Amazon Bedrock が一般利用可能に – 基盤モデルを利用した生成系 AI アプリケーションの構築とスケール | Amazon Web Services

2023/09/29 このエントリーをはてなブックマークに追加 7 users Instapaper Pocket Tweet Facebook Share Evernote Clip スケール アプリケーション 生成系 構築 基盤モデル

Amazon Web Services ブログ Amazon Bedrock が一般利用可能に – 基盤モデルを利用した生成系 AI アプリケーションの構築とスケール 本日、Amazon Bedrockが一般提供を開始したことをお知らせします。また、MetaのLlama 2 13B および 70B パラメータのモデルが、近日中に Amazon Bedrock で利用可能になることもお伝えし... 続きを読む

LINEの3.6B言語モデルで遊んだら爆笑した|shi3z

2023/08/15 このエントリーをはてなブックマークに追加 680 users Instapaper Pocket Tweet Facebook Share Evernote Clip shi3z 言語モデル line LLM prompt

LINEから36億(3.6B)パラメータの大規模言語モデル(LLM)が公開されたので早速遊んでみた。正確には遊んだのは昨日のデイリーAIニュースなのだが、面白かったのでこちらにも転載する。 細かいやり方は大先生のページを参照のこと。 例によってこんな関数を書いた def line(prompt): # 推論の実行 input_ids = tokenizer.en... 続きを読む

HuggingFace での Llama 2 の使い方|npaka

2023/07/19 このエントリーをはてなブックマークに追加 5 users Instapaper Pocket Tweet Facebook Share Evernote Clip HuggingFace npaka LLM Meta 高速推論

以下の記事が面白かったので、軽くまとめました。 ・Llama 2 is here - get it on Hugging Face 1. Llama 2「Llama 2」は、Metaが開発した、7B・13B・70B パラメータのLLMです。 長いコンテキスト長 (4,000トークン) や、70B モデルの高速推論のためのグループ化されたクエリアテンションなど、「Llama 1」と比べて大幅... 続きを読む

Llama.cpp で Llama 2 を試す|npaka

2023/07/19 このエントリーをはてなブックマークに追加 7 users Instapaper Pocket Tweet Facebook Share Evernote Clip npaka LLM llama.cpp Meta モデル

「Llama.cpp」(llama-cpp-python)で「Llama 2」を試したので、まとめました。 1. Llama 2「Llama 2」は、Metaが開発した、7B・13B・70B パラメータのLLMです。 3. モデル一覧「Llama.cpp」を利用するには、「Llama 2」モデルをGGML形式に変換する必要があります。HuggingFaceには、変換済みのモデルも公開されています。... 続きを読む

マイナーなSaaSのCIを作っているんだが俺はもうダメかもしれない - LIVESENSE ENGINEER BLOG

2023/07/12 このエントリーをはてなブックマークに追加 16 users Instapaper Pocket Tweet Facebook Share Evernote Clip SaaS YAML タマ diffツール ライブラリ

はじめに CIの概要 出てきた課題と対策 ライブラリのtimeout値が固定値な上に短い ドキュメントにないパラメータがダマで増えた モニターのゾンビ化 想定したように設定が反映されずに手動で変更 YAMLのdiffツール(dyff)の自己主張が激しい 結局CI化するべきだったのか? 得られたメリット 正直な感想と今後 はじめに イ... 続きを読む

 
(1 - 25 / 231件)