🧯 OpenAIは、AIの害を予測し軽減するために、新たな準備責任者を募集している。 ↗
OpenAI は「準備責任者」の役職を募集しました。これは基本的に、最先端モデルの最悪の使用法を想像し、圧力に耐えるガードレールを構築する (雰囲気やポリシーの PDF だけでなく) 任務を負う人物です。.
このリストは、脅威のモデリング、評価、そして緩和策を実際の運用パイプラインとして重視しています。これは、ソフトウェアの出荷のように枠組みを定めた安全対策であり、一見安心できるものの、次の瞬間には少し不安にさせられます。なぜなら、リスクが製品化されていることを示唆しているからです。.
🧑⚖️ 中国、人間のようなインタラクションを持つAIを規制する規則案を発表 ↗
中国のサイバー規制当局は、人間の性格を模倣し、ユーザーを感情的に引きつけるAIサービス(おしゃべりな仲間、色っぽいアシスタント、「あなたは本物ですか?」ゾーン全体)を対象とした規則案を配布した。.
注目すべき点の一つは、サービス提供者は過度の使用を警告し、利用者が依存や中毒の兆候を示した場合には介入する必要があるという点です。これは心理的リスクについて異例なほど明確に述べられています。まるで誰かが「AIフレンド」のトレンドを見て、シートベルトなしではダメだと判断したかのようです。.
🧩 さようなら、GPT-5。こんにちは、Qwen ↗
Wiredの解釈によると、Qwenが人々の心を掴んでいるのは、最高のベンチマークマシンであることではなく、オープンウェイトで簡単に改造できることだ。実際、ビルダーたちはこれを常に選んでいる。Qwenはベルベットロープの向こう側にあるものではなく、「実際に手に持てるツール」なのだ。.
この記事は、これをより広範な変化として捉えています。製品にうまく組み込まれ(そして社内で微調整も行われる)オープンモデルは、リーダーボードでのわずかな上昇よりも重要になり得る、と。少し刺激的で、クローズドラボに対して少し冷淡な表現かもしれませんが…しかし、雰囲気は伝わってきます。.
🎁 OpenAIとAnthropic、開発者向けホリデーシーズンのAI利用制限を2倍に:知っておくべきこと ↗
OpenAIとAnthropicはコーディング中心のツールの使用制限を一時的に引き上げ、個々の加入者がすぐに上限に達することなく、より負荷の高いワークフローを実行できる余裕を与えた。.
Mintによると、このブーストはパワーユーザー向けで、プロモーション期間終了後は状況が元に戻るとのことです。これは「もっとパワーアップしたぞ!」という嬉しい瞬間であると同時に、容量が依然として有限で具体的な制約であることを静かに思い出させてくれるものでもあります。.
💻 Google DeepMindの共同創業者シェーン・レッグは、AIがあなたの仕事を代替できるかどうかを見極めるための「ラップトップルール」を制定した。 ↗
Shane Legg 氏は、率直な経験則を提示しました。つまり、作業がラップトップのセットアップ (画面、キーボード、マイク、カメラなど) だけで完全に実行できる場合、それは高度な AI がますます活用できる認知作業の一種であるというものです。.
彼は少し言葉を濁した。「完全オンライン」の仕事の中には、依然として人間関係や個性に頼っているものもあると指摘した。確かにこのルールは厳しいが…ギロチンではなく、むしろ嵐の警報のようなものだ。.