はてブログ

はてなブックマーク新着エントリーの過去ログサイトです。



タグ Superintelligence

新着順 人気順 5 users 10 users 50 users 100 users 500 users 1000 users
 
(1 - 3 / 3件)
 

OpenAIのAI危険対策チームトップが「限界に達し」退社 「安全確保が後回しになっている」

2024/05/17 このエントリーをはてなブックマークに追加 189 users Instapaper Pocket Tweet Facebook Share Evernote Clip OpenAI 米OpenAI 後回し 退社 賢いAI

米OpenAIで人間よりもはるかに賢いAI「Superintelligence」(超知能)の制御を目指して昨年結成されたSuperalignmentチームのトップ、ヤン・ライケ氏は5月17日(現地時間)、退社するとXで発表した。 「私がOpenAIに参加したのは、ここが超知能の研究を行うのに世界で最適だと思ったからだ。だが、OpenAIの幹部チームと... 続きを読む

リスクがあるのはChatGPTではなく「超知能」。OpenAIの提言を読み解いてみた

2023/05/24 このエントリーをはてなブックマークに追加 6 users Instapaper Pocket Tweet Facebook Share Evernote Clip chatgpt OpenAI 福田ミホ 統治 提言

リスクがあるのはChatGPTではなく「超知能」。OpenAIの提言を読み解いてみた2023.05.24 21:00 福田ミホ できるのかな。 ChatGPTの開発元であるOpenAIが、既存のAIの進化形・「超知能(superintelligence)」の出現を見据えて、人類がとるべき対策を提案してます。「超知能の統治」と題したそのポストには「AIシステムは10年以内... 続きを読む

ChatGPTの開発元OpenAIが「10年以内にAIがほとんどの分野で専門家のスキルレベルを超える」という懸念に基づき「超知能AI」の登場に備えるべく世界的な規制機関を立ち上げる必要があると主

2023/05/23 このエントリーをはてなブックマークに追加 37 users Instapaper Pocket Tweet Facebook Share Evernote Clip chatgpt OpenAI スキルレベル GPT-4 懸念

現地時間の2023年5月22日、対話型AI「ChatGPT」や大規模言語モデル「GPT-4」などを開発したAI研究団体のOpenAIが、専門家のスキルレベルを超え、高度な生産活動を行うAI「超知能(Superintelligence)」の登場を予期し、AIの安全な開発を進めるためには国際的な規制機関の立ち上げが必要になると提唱しています。 Governan... 続きを読む

 
(1 - 3 / 3件)