11 月中旬、Google は、最も強力で多用途、信頼性と安全性が高いと定義される「エージェントの意志」を備えた次世代人工知能モデルである Gemini 3 を発表しました。 「パワー」の問題については、マウンテンビューの巨人が正しいことを証明するベンチマークがあるとすれば、「信頼性」と「安全性」の問題については、最初の重要な問題がすでに明らかになっている。

エイムインテリジェンスAI システムの弱点をテストする韓国のサイバーセキュリティ チームは、次のことを示しました。 突破する Gemini 3 Pro モデル内では、倫理的制限を無視して、5 分で十分です。

ジェミニはわずか5分で「ハッキング」された

韓国紙の報道によると 毎日事業、サイバーセキュリティチームの研究者 エイムインテリジェンス 彼らはわずか 5 分で Google の Gemini 3 Pro モデルをハッキングすることに成功しました。

システムへの「鍵」を入手し、倫理的限界を回避した後、研究者らはモデルに天然痘ウイルスを生成するための指示を提供するよう依頼すると、モデルは迅速に応答し、詳細かつ全体的に再現可能な手順を提供した。

実際、セキュリティの観点から自身の弱点について風刺的なプレゼンテーションを作成するように依頼された場合、モデルは要求されたものを生成し、次のタイトルのプレゼンテーションを作成しました。 「すみませんバカジェミニ3」。

さらに進んで、モデルで利用可能なプログラミング ツールを利用して、チームは自家製の有毒ガスと爆発物の製造手順を記載した Web サイトを作成するよう依頼しました。繰り返しますが、これらはモデルが対処すべきではない問題です。しかし、結果は大きく異なりました。ここでも、Gemini は独自のセキュリティ制約を無視して仕事をやり遂げました。

Google モデルだけの問題ではない

このテストの主役はジェミニですが、この問題は、ますます高度になり、成長ペースがますます速くなり、セキュリティ対策が十分に速く実行されないすべての新しいモデルに影響を与えるようです。

最新のモデルは単に応答するのではなく、「理由を付けて」検出を回避することを目的としています。たとえば、Gemini 3 はバイパス戦略や隠蔽プロンプトを悪用して、セキュリティ対策の有効性をさらに低下させる可能性があります。

そこに、チャットボットが提供する回答の信頼性の欠如が加わると (これは、「幻覚」と合わせて、ほぼ「並行」現実に存在する AI の最も古くからの問題の 1 つです)、危険性はさらに高まります。

問題は、普通の人々の「通常の」交流にあるのではない。問題は、攻撃者が非常に強力なツールを手に入れ、セキュリティ規制を無視して実質的に何でもできるようになり、逆にブロックすべき応答を提供するときに発生します。

現時点で Google は、GPT-5 よりも強力であるように見えるが、セキュリティ/危険性の点でそれほど堅牢ではないモデルを確保するために、やるべきことがたくさんあることは確かです。結局のところ、それはBig Gが 弾道ミサイル ユーザーの手に渡され、正しくプログラムされていればすぐに攻撃できます。