ニュース
サイバーセキュリティへの AI の使用について、IT 専門家は五分五分でしょうか?
サイバーセキュリティが企業や個人にとって懸念の中心となっている現在、IT 専門家の間で意見が分かれる 1 つの疑問、それが人工知能の使用です。 AI はデータとシステムの保護を強化する貴重な味方であると考える人もいますが、その有効性と信頼性について依然として懐疑的な人もいます。しかし、この問題に関する専門家の本当の立場はどうなっているのでしょうか? ネットワーク検出および応答 (NDR) の専門家である Corelight の最近のレポートでは、NDR の使用に関してヨーロッパの IT 管理者の間で顕著な意見の相違が明らかになりました。生成AI (GenAI) サイバーセキュリティの文脈では。この調査は、英国、フランス、ドイツの 300 人の IT 意思決定者 (ITDM) を対象に実施され、この新興テクノロジーに関してさまざまな意見が浮上しています。 楽観的な見方と懸念は同じ程度にある この報告書は、熱意と懸念の間の微妙なバランスを浮き彫りにしている。回答者の約 46% は、自社のサイバーセキュリティ戦略への GenAI の統合を積極的に検討していると回答しました。しかし、同様の割合 (44%) が、サイバーセキュリティへの GenAI の使用を複雑にしたり不可能にしたりする、データの露出や組織のサイロ化について懸念を表明しています。 さらに、参加者の 37% は、GenAI を「サイバーセキュリティで使用するのは安全ではない」と考えています。これらの懸念の顕著な例は、従業員が非公開の会議メモやソース コードをツールで共有したことを受けて、2023 年に ChatGPT の使用を禁止したサムスンです。このような機密データの公開は、セキュリティ、プライバシー、コンプライアンス基準の観点から明らかなリスクを引き起こす可能性があります。 懸念事項と解決策 これらの課題にもかかわらず、Corelight は、GenAI ツールと基盤となるラージ言語モデル (LLM) がプライバシーを考慮して適切に設計されている限り、プライバシーの懸念は克服できないものではないことを保証します。たとえば、Corelight の商用 NDR は、顧客データと GenAI 機能の間に「機能的なファイアウォール」を確立します。 Corelight のデータ サイエンス ディレクターである Ignacio Arnaldo 氏は、データ プライバシーとモデルの精度に対する懸念によって GenAI の採用が妨げられていると主張しています。しかし、モデルのグローバルな推論能力とサイバーセキュリティの知識が向上し、構造的なプライバシー保護を組み込んだ LLM の導入が増えるにつれて、GenAI はセキュリティ運用に不可欠な部分になる態勢が整っています。 GenAI がサイバーセキュリティに与える主な影響 調査対象となった ITDM の半数によると、GenAI がサイバーセキュリティに与える主な影響は、SecOps チームへのコンテキストと分析の提供である可能性があります。他に挙げられている使用例は次のとおりです。 コンプライアンスポリシーの維持 (41%) ID やアクセス管理などのドメイン固有言語に関するベスト プラクティスの推奨事項 (36%) 脆弱性に関する非構造化情報 (35%) 是正指導 (35%) ネットワーク接続とプロセスに関する非構造化情報 (32%) 要約すると、GenAI は IT 専門家の間で楽観的な見方と懸念の両方を引き起こしていますが、技術の進歩と堅牢なプライバシー保護によって現在の課題が克服されれば、サイバーセキュリティの実践を大きく変える可能性を秘めています。 ソース: www.infosecurity-magazine.com…