タグ 視覚
人気順 10 users 50 users 100 users 500 users 1000 usersアカデミー賞の視覚効果賞の悲劇 - 破壊屋ブログ
『ゴジラ -1.0』が受賞したアカデミー賞の視覚効果賞だけど、過去に悲劇的なエピソードがあるので解説します。 ライフ・オブ・パイ 2013年にアカデミー賞の視覚効果賞を受賞した『ライフ・オブ・パイ/トラと漂流した227日』の悲劇だ。 『ライフ・オブ・パイ/トラと漂流した227日』が視覚効果賞を受賞したんだけど、視覚... 続きを読む
「ひとりで移動できない」避難所で想像もしなかった苦労が | NHK | WEB特集
「ひとりで歩きたい。みんなが困っている時だからこそ、みんなの手をかけないように、自分で移動したいのに…」。 視覚に障害がある男性のことばです。 いま3か所目の避難所で暮らすこの男性。被災後、想像もしていなかった苦労に直面しました。 (能登半島地震取材班 大村和輝・河村柚花) 石川県珠洲市で被災した大口史... 続きを読む
慶応大学、失明患者らの視力回復へ 24年度にも治験 - 日本経済新聞
慶応義塾大学の研究チームは遺伝性の目の難病で失明や視力低下した患者に対し、視覚を再生する治療の臨床試験(治験)を2024年度にも始める。神経活動を光で操作する「光遺伝学」の技術を応用する。ノーベル賞級の革新的な実験技術が、治療が難しい患者を救う手段になる。慶応大の栗原俊英准教授らは目の難病「網膜色素... 続きを読む
「視覚のヘッドフォン的な使い方が一番」Apple Vision Proのレビュー#1|落合陽一
片目ごとに4K解像度を超える独自のピクセルOLEDと独自のレンズを使用し、高解像度かつ格子状の仕切りが見えないほどの表示を実現していると予想。 6つのマイクと12つのカメラを搭載し、身振り手振りを含む三次元空間を認識し、自分の声を含めた周囲の音声を三次元で録音・再生できる。大量のカメラとマイクが空間の光と... 続きを読む
ネコは世界をどのように捉えているのか、人間の感覚とどう違う?
ネコが感じ取る世界は、私たちが暮らす世界とはかなり違っている。ネコには人間と同じ五感(視覚、聴覚、嗅覚、味覚、触覚)が備わっているが、薄明かりの世界で生きやすいように、そのいくつかはより特殊化し、より精密になっている。(PHOTOGRAPH BY SAMUEL WHITTON, ALAMY STOCK PHOTO) ネコにとっての世界は、私た... 続きを読む
“家庭用囲碁ロボット”発売へ AI&ロボットアーム付きで、自力で指す 価格は16万5000円
中国SenseRobotは、家庭向け囲碁ロボット「SenseRobot Go」を発表した。視覚と判断能力を備えたAIと、石を指せるロボットアームを備えており、ロボットと囲碁で対戦できる。2024年1月5日から高島屋などで発売予定で、価格は16万5000円。 ロボット開発を手掛ける中国SenseRobotは12月20日、家庭向け囲碁ロボット「SenseRo... 続きを読む
画像を見て質問に答えられるオープンソースなGPT-4レベルのAI「LLaVA-1.5」をGCP上で動作させてみた
Microsoftやウィスコンシン大学マディソン校などの研究チームが開発し、2023年4月17日に公開した「LLaVA」は「視覚」を持つAIで、画像を入力するとその画像に基づいて返答を行うことができます。2023年10月5日に登場したLLaVA-1.5はさらにクオリティが向上しているとのことなので、実際にGoogleのクラウドコンピューティ... 続きを読む
ついにChatGPTが「見る」「聞く」「話す」に対応、人間と同じように音声で会話したり写真の内容について質問したりできる
OpenAIがChatGPTに「画像の内容を判断して応答する機能」と「テキストではなく音声でコミュニケーションする機能」を追加することを発表しました。これにより「冷蔵庫の中身を見せてレシピを提案してもらう」といった視覚を伴うコミュニケーションが可能になるほか、人間と会話するように音声コミュニケーションをとるこ... 続きを読む
生成AIに“視覚”与える学習ライブラリ、自動運転EVベンチャー公開 最大700億パラメータの学習済みモデルも
生成AIに“視覚”与える学習ライブラリ、自動運転EVベンチャー公開 最大700億パラメータの学習済みモデルも 自動運転車を開発するTuringは、日本語などの複数言語対応のマルチモーダルな学習ライブラリ「Heron」を公開した。ソースコードは、研究・商用利用が可能。併せて、最大700億パラメータの学習済みモデル群なども... 続きを読む
Googleが「大規模言語モデルに視覚を与える仕組み」について解説、メルカリと協力して作成したデモも公開
Googleが、大規模言語モデル(LLM)に「視覚」を持たせた「大規模視覚モデル(LVM)」のデモを公開すると同時に、LVMの仕組みについての解説記事を投稿しました。 Multimodal generative AI search | Google Cloud Blog https://cloud.google.com/blog/products/ai-machine-learning/multimodal-generative-ai-search?hl=en ... 続きを読む
「視力が低下すると認知症を患うリスクが高くなる」傾向が3000人以上の高齢者を対象にした調査で示される
人間が持つ5つの感覚のうち、視覚は特に認知に対して大きな影響を及ぼすといわれており、物をはっきりと見る能力を失うと、思考や記憶に悪影響を及ぼすこといが指摘されています。アメリカで約3000人の高齢者を対象に視力と認知能力について調査した研究論文が発表され、視力が低下すると認知症を患うリスクが高くなる傾... 続きを読む
10人弱の部員がたった2人に…それでも「顔認証で世界第1位」を達成した研究者が守り通したたった一つのこと わずかでも性能を上げることだけに集中して得た結果
私が顔認証の部署に配属されたのは2002年、32歳のときでした。大学院で理論物理を研究した後、NECに入社してからは視覚から脳への情報伝達についての数学的な研究に従事していましたので、顔認証はもちろん画像処理でも門外漢です。しかも、研究者が30歳を過ぎて研究テーマを大きく変えるのは明らかに不利なこと。NECの... 続きを読む
ネコには世界はどのように見えているのか…人間の視界と画像で比較
Dina Spector,Erin Snodgrass [原文] (翻訳:Ito Yasuko、編集:井上俊彦) May. 28, 2023, 03:00 PM サイエンス 138,705 人間とネコの視覚、最大の違いは網膜。目の奥にある組織の層で、視細胞と呼ばれる細胞がある。 Ahsan Mohammed Ahmed/Anadolu Agency via Getty Images 人間とネコの視覚の最大の違いは、網膜に... 続きを読む
AppleがiPhoneで15分のトレーニングをするだけで「自分に似た合成音声」で他人と会話できる機能を発表
Appleが視覚・聴覚・認知・モビリティのアクセシビリティを向上するためのソフトウェア機能をiPhoneやMacに導入すると、2023年5月16日に発表しました。その中でも特に目玉となる機能が、iPhoneやiPadに声を吹き込むだけで、自分の声を再現した音声を合成し、コミュニケーションに応用できるという「Live Speech」です。 ... 続きを読む
Collaborative AI: 視覚・言語・行動の融合
Collaborative AI: 視覚・言語・行動の融合 第13回 Language and Robotics研究会 招待講演資料 続きを読む
文字・画像と映像・音・3D深度・熱・動作を統合して現実世界を理解できるAI「ImageBind」をMetaがオープンソースで公開
人が外界を認識する時、「人通りの多い通りを見ながら、車のエンジン音を聞く」というように、視覚・聴覚・触覚・嗅覚・味覚という複数の感覚を同時に使います。MetaのAI開発部門であるMeta AIが、「テキスト」「画像と映像」「音声」「動きを計算する深度(3D)」「赤外線による熱」「慣性測定ユニット(IMU)による動き」... 続きを読む
Storybookを用いてテストの可視化を進めた話 | PR TIMES 開発者ブログ
それに伴い他のメンバーが書いたテストを修正する機会が増えたのですが、修正が難しい場合には一時的にtest.todoとしたり、テストを書いた人に修正を依頼するなどの現象が発生していました。 テストの修正が難しい一因として、testing-libraryが行った画面操作を視覚で確認できないことがありました。そこで昨年導入した... 続きを読む
視覚障害者の投票 手作りファイルでサポート | NHK
選挙での投票に際し、「視覚に障害があり、候補者名を記入する枠がよく見えない」といった声を受けて、京都府舞鶴市では投票用紙を入れれば記入する枠がわかりやすくなるクリアファイルを作り、選挙で活用しています。 手作りのクリアファイル これはA5サイズの透明のクリアファイルの一部を切り取ったもので、投票用紙... 続きを読む
「"口頭での指示を理解できず、とんちんかんな行動を繰り返して」とあるの..
「"口頭での指示を理解できず、とんちんかんな行動を繰り返して」とあるので、たぶん聴覚系のコミュニケーションの発達障害をお持ちなのだと思う。 実はうちの子どもがそうなのだが、視覚から入ってくる情報は人並み以上に処理できるのに、相手が話すことを理解するのが超苦手。 教科書や参考書を読んだものは丸暗記に近... 続きを読む
緊張高まると“スローで見える”千葉大の研究チームが発表|NHK 千葉県のニュース
野球で「ボールが止まって見える」など緊張が高まった際、視覚の処理能力が向上して、物事がスローモーションで見えることを確認できたとする研究成果を千葉大学の研究チームが発表しました。 これは、千葉大学大学院人文科学研究院の一川誠教授らの研究チームが学術誌で発表しました。 研究チームはおよそ20人の被験... 続きを読む
Googleが視覚とテキストから人間のように理解するロボット向け言語モデル「PaLM-E」を発表、「お菓子を持ってこい」などの複雑な命令も遂行可能
対話型AI「ChatGPT」などに使われる言語モデルは複雑なタスクを実行することが実証されていますが、これをロボットに応用する場合、状況にあった動作を行うために言語モデルはより詳しい情報を収集する必要があります。Googleとベルリン工科大学のAI研究者グループは、カメラで捉えた映像とテキストによる指示を理解でき... 続きを読む
文章だけでなく視覚的なコンテンツも理解してIQクイズに答えられるAI「Kosmos-1」をMicrosoftが発表、汎用人工知能の開発に前進
近年では画像生成や人間との対話などの特定分野で優れた能力を発揮するAIが注目を集めていますが、一部のAI開発者は人間のように言語や視覚、聴覚などさまざまな情報をまとめて処理できる「Artificial General Intelligence(AGI)/汎用(はんよう)人工知能」の開発を目標としています。新たにMicrosoftが、言語処理だけで... 続きを読む
視覚に障害を持つ人がタッチパネル化の進展により、松屋や日高屋、セブンイレブンに行けなくなった話
澤田智洋|世界ゆるスポーツ協会 @sawadayuru 視覚に障害がある友人が「タッチパネルはどこを押していいか分からないからバリアでしかない。でもタッチパネル化の波が加速している。これまで通っていた松屋や日高屋に行けなくなった。セブンイレブンの決済方法も選べない」と心底困っていた。深刻な問題。 2023-02-28 23... 続きを読む
AIの俳句、有名俳人の句より高評価 京大の研究院調査「質の高さ受け入れを」|文化・ライフ|地域のニュース|京都新聞
人工知能(AI)が作った俳句のうち京都大の学生が選んだ作品は、有名俳人の句よりも評価が高かった、との調査結果を京都大の研究グループがまとめた。同グループは「AIと人間の協働でより創造性の高い俳句創作ができる可能性がある」としている。 AIを取り入れた創作活動は「AIアート」と呼ばれ、絵画などの視覚... 続きを読む
音フェチシム『ASMR Food Experience』発表。レストランには脳がとろける美音がたっぷり - AUTOMATON
『ASMR Food Experience』は、ASMRレストラン経営シミュレーションゲームだ。「ASMR」は、聴覚や視覚などへの刺激で発生する、「うずうず」あるいは「ぞくぞく」するような心地よい感覚のこと。動画などのジャンルとしても人気で、たとえば「ささやき声」「包丁でものを切る音」などの音声コンテンツが人気を集めている... 続きを読む