アメリカの法律専門家の間では、AIの出力が言論の自由の保護を受けるかどうかで意見が分かれています。
一部の専門家は、第一修正案の保護を受けるべきだと主張していますが、Peter Salib氏は深刻な結果を招く可能性があると警告しています。彼は、潜在的なリスクを回避するために、AI出力そのものを規制すべきだと主張しています。
AIの安全に関する規制の議論は、ますます重要になっています。
大規模言語モデルの推論効率に大きな進展が見込まれる。清华大学とMoonshot AIは、プリフィル即サービスという新しいアーキテクチャを共同で提案した。このアーキテクチャでは、推論プロセスをプリフィルとデコードの2つのフェーズに分割し、計算リソースの配分を最適化することで、ハードウェアの制限問題を効果的に解決し、モデルサービスのパフォーマンスを著しく向上させた。
OpenAIが生物学専用大モデルGPT-Rosalindを発表。ゲノムデータの過負荷と専門用語の壁という研究課題に対応し、汎用科学モデルとの差別化を図る。....
Apple launches 'AI Coding Bootcamp' for Siri engineers to enhance their large language model skills, supporting next-gen Siri and iOS AI features. This strategic move aims to catch up with Google and OpenAI in generative AI, focusing on prompt engineering and full-cycle model deployment.....
Google研究チームがVantage手法を発表。大規模言語モデルでチームの相互作用を模倣し、従来のテストでは評価が難しい協働、創造性、批判的思考などの「持続的スキル」を測定。教育分野における有効な評価ツール不足を補う。....
研究結果によると、現在の主要なAIモデルは臨床診療の推論を模倣する際に明らかに不足しており、医療課題を独立して担う能力はまだない。この研究では21種類の大規模言語モデルをテストし、結果は『JAMA Network Open』に掲載された。