最新の研究で、大規模言語モデルに重要な脆弱性が存在し、個人情報の漏洩や標的型攻撃につながる可能性が明らかになりました。
「モデル寄生」と呼ばれるこの攻撃方法は、低コストでモデルを複製し、クローズドソースとオープンソースの機械学習モデル間でそれをうまく伝播させることができます。
大規模言語モデルは大きな可能性を秘めていますが、企業はサイバーセキュリティリスクを真剣に検討する必要があります。
Google研究チームがVantage手法を発表。大規模言語モデルでチームの相互作用を模倣し、従来のテストでは評価が難しい協働、創造性、批判的思考などの「持続的スキル」を測定。教育分野における有効な評価ツール不足を補う。....
研究結果によると、現在の主要なAIモデルは臨床診療の推論を模倣する際に明らかに不足しており、医療課題を独立して担う能力はまだない。この研究では21種類の大規模言語モデルをテストし、結果は『JAMA Network Open』に掲載された。
アップルは2つの機械学習研究を発表:SQUIREシステムはGPT-4oとスロットクエリ中間表現を活用し、AI生成UIの制御性と微調整効率を向上。もう1つは画像セキュリティ審査能力を強化し、既存技術の課題解決を目指す。....
アリが新世代の大規模言語モデル Qwen3.6-Plus をリリースし、現在最も強力な国内プログラミングモデルと称される。3.5バージョンと比較して性能が著しく向上し、多くのプログラミング評価で国内トップを維持しており、全体的な能力は国際的基準である Claude シリーズに近くている。このモデルはフロントエンド開発や複雑なコードベースのタスクなどにおいて高い自律性を示している。
ベルギー・ブリュッセル自由大学の研究では、商用の大規模モデルが独自にオリジナルな数学の証明を生成できることが明らかにされた。ChatGPT-5.2は2024年に提示された数学の予想を成功裏に解いたことで、大規模言語モデルの能力がコード補助やテキスト創作を越えて、非常に強い論理的推論が必要な数学分野へと進化したことを示している。