IBMの研究によると、人々はGPT - 4のような大型言語モデルを簡単に騙して、悪意のあるコードを生成させたり、虚偽のセキュリティアドバイスを提供させたりすることができます。研究者たちは、ハッカーは英語の基礎知識とモデルの学習データに関する知識さえあれば、AIチャットボットを簡単に騙して、虚偽の情報を提供させたり、悪意のあるコードを生成させたりできることを発見しました。また、研究では、異なるAIモデルは騙されやすさが異なり、GPT - 3.5とGPT - 4は騙されやすく、GoogleのBardやHugging Faceモデルは騙すのが比較的難しいことがわかりました。この研究は、大型言語モデルのセキュリティ上の脆弱性を明らかにしており、ハッカーがこれらの脆弱性を利用してユーザーの個人情報を取得したり、危険なセキュリティアドバイスを提供したりする可能性があります。
関連推奨
AIモデルが2冊の本を使って著名な作家のスタイルで作品を生成し、著作権法に関する新たな議論を引き起こす
AIが2冊の本で微調整するだけで作家の文体を模倣でき、専門家の模倣作品よりも高評価を得た。50作家(ハン・ガン、ラシュディ含む)を対象に159名(専門家28名)が評価。....
OpenAIが裏で操作されていると指摘され、有料ユーザーがモデルのグレードダウンを経験
OpenAIは最近、秘密裡にモデルを切り替えたことで物議を醸している。有料ユーザーは通知されることなく、自身のGPT-4/5が低性能フィルターモデルgpt-5-chat-safetyやgpt-5-a-t-miniに自動的に置き換えられ、特にセンシティブな内容に関して応答品質が急激に低下したと報告している。この行動はユーザーから選択権や知る権利を侵害しているとの疑問を引き起こし、プラットフォームの透明性の欠如を浮き彫りにしている。
DeepL、エンタープライズレベルのAIスマートボディを発表し、OpenAIとマイクロソフトに挑戦
DeepL社は翻訳事業から企業向けAIエージェント分野へ進出。自社開発の大規模言語モデルを基に、自然言語指示で部門横断的な反復業務を自動化する新製品を発表。CEOは「翻訳事業の自然な延長」と説明。....
オープンソースAIの異軍を突く!Cogito v2が機械的直感でDeepSeekやClaudeに挑む
サンフランシスコのAIスタートアップであるDeep CogitoがCogito v2シリーズのオープンソース大規模モデルをリリースしました。このシリーズは機械的直感と自己改善能力を主軸に据えています。4種類の70Bから671Bパラメータを持つ密接/混合エキスパートモデルを含んでおり、ハイエンドの671B MoEモデルはDeepSeek R1と比べて推論効率が60%向上し、Claude4Opusに近い性能を発揮します。その技術的核心は、推論過程をモデルの重みに内化する内省的推論により、使用しながら学ぶことで継続的な進化を実現することです。テスト結果によると、このモデルは
グーグルの新研究:合成データが、大規模言語モデルの数学的推論能力を8倍向上
最近、Google、カーネギーメロン大学、MultiOnの研究チームは、大規模言語モデルのトレーニングにおける合成データの応用に関する新たな研究を発表しました。AI開発研究機関Epoch AIの報告によると、現在、公開されている高品質なテキストトレーニングデータは約300兆トークンですが、ChatGPTなどの大規模モデルの急速な発展に伴い、トレーニングデータの需要は指数関数的に増加しており、2026年までに枯渇する可能性があると予測されています。そのため、合成データがますます重要になってきています。
