IT 전문가는 사이버 보안을 위해 AI를 사용하는 데 50:50으로 나뉘어 있습니까?
사이버 보안이 기업과 개인의 핵심 관심사인 이 시점에서 IT 전문가를 엇갈리는 한 가지 질문은 바로 인공 지능의 사용입니다. 일부 사람들은 AI를 데이터 및 시스템 보호 강화에 있어 귀중한 동맹으로 보는 반면, 다른 사람들은 AI의 효율성과 신뢰성에 회의적입니다. 하지만 이 주제에 대한 전문가들의 실제 입장은 무엇입니까?
NDR(네트워크 탐지 및 대응) 전문가인 Corelight의 최근 보고서는 유럽 IT 관리자들 사이에서 네트워크 사용에 관해 눈에 띄는 차이가 있음을 보여줍니다.생성적 AI(GenAI) 사이버 보안 맥락에서. 영국, 프랑스, 독일의 IT 의사결정권자(ITDM) 300명을 대상으로 실시된 이 설문 조사에서는 이 새로운 기술에 대한 다양한 의견이 제기되었습니다.
낙관주의와 우려가 동등한 수준
이 보고서는 열정과 관심 사이의 미묘한 균형을 강조합니다. 응답자의 약 46%는 GenAI를 사이버 보안 전략에 통합하는 것을 적극적으로 모색하고 있다고 답했습니다. 그러나 비슷한 비율(44%)은 데이터 노출 및 조직 사일로에 대한 우려를 표명하여 사이버 보안에 GenAI 사용을 복잡하게 하거나 불가능하게 만듭니다.
또한 참가자의 37%는 GenAI가 “사이버 보안에 사용하기에 안전하지 않다”고 생각합니다. 이러한 우려의 대표적인 사례는 직원들이 비공개 회의 메모와 소스 코드를 도구와 공유한 후 2023년에 ChatGPT 사용을 금지한 삼성입니다. 이러한 민감한 데이터의 노출은 보안, 개인 정보 보호 및 규정 준수 표준 측면에서 명백한 위험을 초래할 수 있습니다.
우려사항 및 해결방안
이러한 과제에도 불구하고 Corelight는 GenAI 도구와 기본 LLM(대형 언어 모델)이 개인 정보 보호를 염두에 두고 적절하게 설계되어 있다면 개인 정보 보호 문제를 극복할 수 없다고 확신합니다. 예를 들어 Corelight의 상용 NDR은 고객 데이터와 GenAI 기능 사이에 “기능적 방화벽”을 설정합니다.
Corelight의 데이터 과학 이사인 Ignacio Arnaldo는 데이터 개인 정보 보호 및 모델 정확성에 대한 우려로 인해 GenAI 채택이 지연되고 있다고 주장합니다. 그러나 모델의 글로벌 추론 능력과 사이버 보안 지식이 향상되고 더 많은 LLM 배포에 구조적 개인 정보 보호가 포함됨에 따라 GenAI는 보안 운영의 필수적인 부분이 될 준비가 되어 있습니다.
GenAI가 사이버 보안에 미치는 주요 영향
설문 조사에 참여한 ITDM 중 절반에 따르면 GenAI가 사이버 보안에 미치는 주요 영향은 SecOps 팀에 대한 컨텍스트 및 분석 제공일 수 있습니다. 인용된 다른 사용 사례는 다음과 같습니다.
- 규정 준수 정책 유지(41%)
- ID 및 액세스 관리와 같은 도메인별 언어에 대한 모범 사례 권장 사항(36%)
- 취약점에 대한 구조화되지 않은 정보(35%)
- 교정 지침(35%)
- 네트워크 연결 및 프로세스에 대한 비정형 정보(32%)
요약하면, GenAI는 IT 전문가들 사이에서 낙관론과 우려를 불러일으키지만, 기술 발전과 강력한 개인 정보 보호를 통해 현재의 과제를 극복한다면 사이버 보안 관행을 크게 변화시킬 수 있는 잠재력을 가지고 있습니다.
Comments
Leave a comment