人工知能モデルの能力が急速に向上する中、AIセキュリティ問題が顕著になってきています。水曜日、AIセキュリティ評価に特化した企業Irregularは、8,000万ドル規模の新たな資金調達を完了したことを発表しました。このラウンドはシーアクス・キャピタルとレッドポイント・ベンチャーズが主導し、サイバーセキュリティ会社WizのCEOであるアサフ・ラパポールも投資に参加しています。関係者によると、今回の資金調達によりIrregularの評価額は4億5,000万ドルに達しています。

AI、人工知能

前向きなセキュリティ保護の考え方

"我々の考えは、まもなく多くの経済活動が人間と人工知能の相互作用、および人工知能同士の相互作用から生まれるようになるということです。これにより、セキュリティシステムが多方面で破綻する可能性があります"と、共同創業者のダニ・ラハフ氏はTechCrunchに対して語りました。この見解は、IrregularがAI時代におけるセキュリティ課題への深い洞察を示しています。

IrregularはかつてPattern Labsとして知られていた会社で、現在ではAI評価分野において重要な参加者となっています。同社の研究成果は業界トップレベルのモデルのセキュリティ評価に広く応用されており、Claude3.7SonnetやOpenAIのo3、o4-miniモデルなどにも採用されています。さらに注目すべきは、同社が開発したモデルの脆弱性検出評価フレームワークSOLVEが業界内で広く利用されている点です。

革新的なシミュレーション環境技術

Irregularは既存のモデルリスク評価において豊富な蓄積を持っていますが、今回の資金調達の核心的な目的はさらに壮大です。リスクや危険行為が実際に現れる前に、事前に発見し防止することです。同社はリスクを未然に防ぐための精密なシミュレーション環境システムを構築しており、モデルの公開前に行う密接なテストが可能です。

"私たちは複雑なネットワークシミュレーション環境を持っており、AIは攻撃者としてだけでなく防御者としても機能します"と、共同創業者のオメル・ネヴォ氏は説明しました。「新規モデルが登場する際には、どの防御策が有効で、どの防御策が無効かを事前に把握できます」。

業界全体のセキュリティ意識の高まり

先進的なAIモデルの潜在的なリスクがますます明らかになってきたことにより、セキュリティはAI業界の中心的な懸念事項となっています。今年の夏、OpenAIは内部のセキュリティ対策を全面的に見直し、潜在的な商業スパイ活動を防ぐことを目的としています。これは、主要企業がセキュリティ問題にどれほど重きを置いているかを示しています。

一方で、AIモデルがソフトウェアの脆弱性を見つける能力は日々向上しており、攻撃者と防御者双方にとって大きな影響を与えています。Irregularの創業者にとって、これは大型言語モデルの機能強化によって引き起こされる多数のセキュリティ課題の中でも最初の一歩に過ぎません。

セキュリティと能力の競争

"もし先端研究機関がどんどん複雑で強力なモデルを作り続けるなら、我々の目標はそれらのモデルが安全であることを確保することです"とラハフ氏は述べました。「しかし、これは変化し続ける目標であり、今後も多くの仕事が待っているのは間違いありません」。