/
사이버 레질리언스

AI 안전 및 보안을 위한 보안 실무자의 프레임워크

A logo of the AI Safety Summit 2023

11월 초, 영국은 AI 세이프티 서밋인공 지능에 관한 최초의 글로벌 서밋입니다.국제 정부와 AI 전문가들이 한자리에 모여 AI의 위험과 국제적으로 조율된 노력이 이러한 위험을 완화하는 데 어떻게 도움이 될 수 있는지 생각해 보았습니다.이번 서밋은 최근 논의를 포함하여 AI 안전에 관한 글로벌 논의에 따른 것입니다. AI의 안전하고 보안되며 신뢰할 수 있는 개발 및 사용에 관한 미국 행정명령.

정상 회담에서 AI 안전을 위한 구체적인 프레임워크나 지침이 나올 것으로 예상했지만 실질적인 지침을 찾지 못해 실망했습니다.이번 블로그 게시물에서는 수석 보안 실무자인 제 관점에서 이번 회담에서 기대했던 AI 안전에 관한 실행 가능한 프레임워크의 종류에 대해 간략히 설명했습니다.

AI의 새로움을 활용하여 안전 및 보안 문제를 해결하세요

프레임워크를 제시하기 전에 철학적으로 한 발 물러서서 AI 안전이 왜 그렇게 중요한 주제인지, 그리고 올해 AI Safety Summit의 결과에 왜 그렇게 실망했는지 이해하는 것이 중요하다고 생각합니다.

오늘날 우리가 사용하는 네트워크 기술의 보안 결점 대부분은 궁극적으로 수십 년 전에 해당 기술이 의존하는 프로토콜이 원래 어떻게 설계되었는지에 대한 약점에서 찾을 수 있음이 분명합니다.

보안은 초기 고려 사항이 아니었습니다.실제로 이런 경우는 거의 없습니다.

웹 (HTTP), 메일 (SMTP) 및 파일 전송 (FTP) 의 원래 프로토콜을 예로 들어 보겠습니다.이들 모두 암호화를 통한 어떠한 형태의 데이터 보안도 없이 일반 텍스트로 설계되었습니다.당시 개발자들은 은행, 임상 환자 정보 또는 민감한 사용자 정보가 모두 이러한 단순한 네트워크 프로토콜을 통해 전 세계로 자유롭고 편리하게 전송되는 세상을 상상하지 못했습니다.

IETF (인터넷 엔지니어링 태스크 포스) 간행물에 설명된 대로 1980년대 초에 만들어진 IPv4 주소 지정 체계도 마찬가지입니다. RFC 791.공개적으로 주소 지정이 가능한 수십억 개의 IP 주소가 현실적으로 부족해질 것이라고 당시에는 누가 상상이나 했을까요?그럼에도 불구하고 보안을 소급하여 강화하려는 시도는 일반적으로 병목 현상이자 파괴적 사업으로 판명됩니다.

AI nodes represented in the shape of a brain

이를 대표하는 OpenAI의 ChatGPT와 같은 제너레이티브 AI 첫 번째 기념일 이번 달 공개 현황 — 머신 러닝 및 딥 러닝 기능의 발전을 선보였습니다.이러한 유형의 대형 언어 모델 (LLM) 은 인공 신경망 (ANN) 을 통해 인간 두뇌의 신경망을 거의 모방할 수 있습니다.전 세계는 처음으로 ChatGPT와 같은 제품에서 AI를 쉽게 사용할 수 있도록 하기 위한 다양한 노력이 수년에 걸쳐 절정에 달한 것을 목격했습니다.갑자기 인공 일반 지능 (AGI) 과 이론적으로 훨씬 뛰어난 인공 슈퍼 지능 (ASI) 의 가능성조차 더 이상 소설 제목의 과장이 아닐 수도 있습니다.

우리는 AI가 아직 진화 초기라는 사실을 활용하여 AI를 고려해야 합니다. 안전 및 보안특히 네트워킹과 보안의 역사와 어려움과 관련해서 말이죠. 2023년 11월과 같은 AI 안전 서밋은 두려움을 해소할 뿐만 아니라 한 발 물러서서 전체론적 관점에서 AI 안전과 보안을 평가했어야 했습니다.안타깝게도 이 목표가 달성되었는지는 잘 모르겠습니다. 적어도 그 기간에는 그렇지 않았습니다.

AI 안전 및 보안을 위한 3가지 주요 영역

AI 안전 및 보안에 관한 최초의 사전 예방적 국제 정상 회담에서 저는 다음과 같은 주요 영역을 다루기 위해 지정학에서 지리 정책으로 실질적인 전환이 이루어질 것으로 기대했습니다.

  • 개발, 관리 및 최종 사용
  • 보안
  • 윤리 및 법률

이러한 도메인은 서로 얽혀 있으므로 서로 관련되어 있습니다.예를 들어, AI 솔루션 개발에는 교육 데이터의 편향성 및 딥 러닝 시스템의 숨겨진 계층 구성과 같은 소스 문제를 억제하기 위한 윤리 및 법적 영역이 포함되어야 합니다.효과가 있는 모든 것이 옳은 일은 아닙니다.동시에 교육 데이터 및 개발 프로세스의 무결성 확보도 프로세스 초기에 가능한 한 빨리 포함시켜야 합니다.

AI 안전 프레임워크: AI 안전 서밋에서 보고 싶었던 것

세 가지 영역 각각에서 저는 추가로 고려해야 할 주요 표준과 프레임워크를 선택할 것을 제안했으며, 그 최종 결과는 이러한 표준과 프레임워크를 수립하는 것을 목표로 하는 집중 그룹을 시작하는 것이어야 합니다.

개발, 관리 및 최종 사용
  • 인터페이스 표준 및 프레임워크: 물리적 디바이스용 JSON 및 USB-C를 사용하는 웹 API와 마찬가지로 여러 공급업체 간, 그리고 벤더와 최종 사용자 간의 AI 인터페이스에 관한 지침 및 표준입니다.이를 통해 여러 도메인에서 훨씬 더 빠른 혁신이 가능해질 수 있습니다.스마트 워치, TV, 드론, 자동차, 구급차 등의 기술 혁신을 위해 Wi-Fi 및 모바일 통신 인터페이스가 어떤 역할을 했는지 그 좋은 예가 될 수 있습니다.
  • 차별화 표준 및 프레임워크: 디지털 저작권 관리 (DRM) 저작권 및 지적 재산권 보호를 위해 당사가 보유한 것과 같이 원본 예술 작품과 AI 생성 저작물을 명확하게 결정하고 구분할 수 있도록 하는 정책.중요한 수혜자 영역 중 하나는 적어도 상품 수준에서는 딥 페이크 및 선거 간섭과 같은 잘못된 정보와 기만적인 콘텐츠를 해결하는 것입니다.
  • AI 기술 격차: 오늘날까지 개인용 컴퓨팅의 초기 호황기에 컴퓨터 프로그래밍 및 컴퓨터 활용 능력 (성인 교육 포함) 에 대한 노력과 유사하게 AI 개발, AI 관리 및 AI 사용과 같은 주요 영역의 기술 격차를 해결합니다.이는 좋은 AI와 나쁜 AI 개발 및 사용을 위한 공평한 경쟁의 장을 마련하기 위한 것입니다.
보안
  • 양식 보호의 특이성: AI (예: ChatGPT, 음성 AI, 이미지 인식 AI 등) 를 실제 하드웨어와 단일 형태로 병합하기 위한 지침 및 보호. 이는 미래의 산업용 로봇 또는 휴머노이드 로봇과 유사합니다.이러한 기능은 궁극적으로 일반 지능 AI에 물리적 세계에서의 물리적 상호 작용 기능을 제공합니다.기본적으로 ChatGPT 유형의 물리 로봇이 사람을 공격하거나 치명적인 방식으로 오작동을 일으키지 않도록 하는 것입니다.산업용 로봇과 자율 주행 자동차가 오작동을 일으켜 사람에게 해를 입히거나 사망을 초래한 사례는 이미 다양합니다.
  • 리스크 ...에서 아이: AI로 인한 위험으로부터 보호합니다.ChatGPT는 이미 악의적인 사용을 보여왔습니다.이 영역에서는 진화하는 악성 페이로드, 기록 속도, 취약점 발견 및 악용, 보이스 및 피싱 사기, 제조 프로세스 침해나 공급망 공격과 같은 방해 행위와 같은 위협을 고려할 것입니다.
  • 리스크 아이: AI 자체에 가해지는 위험으로부터 보호합니다.여기에는 AI 개발, 학습 프로세스 및 편향 매개변수의 악용이 포함됩니다.AI 개발 윤리, 보안, 사용 지침은 존재하지만 공급망의 보안 코딩, DevSecOps 및 SBOMS와 같은 현재의 보안 관행을 기반으로 개선되고 개선되어야 합니다.기타 소비 측면에서는 컴퓨터 오용 행위와 유사한 정책, 컴퓨터 사용에 대한 회사 보안 정책, 공정 사용 정책이 있습니다.
윤리 및 법률
  • AI 시민 윤리: 직원 모니터링, 교통 통제 및 단속, 형사 사법 제도에 대한 안면 인식 및 사용자 행동과 같은 분야에서의 AI 사용에 관한 윤리 및 지침.
  • AI 과학 윤리: 과학 및 의학 측면에서 AI를 사용하여 수행할 수 있는 작업에 대한 윤리 및 지침.유전학 및 질병 연구, 복제 등을 예로 들 수 있습니다.
  • AI 군사 윤리: 키네틱 오퍼레이션, 특히 자율 AI에서 AI를 사용하기 위한 제네바 컨벤션 유형의 참여 규칙 세트를 개발하세요.이는 대량 학살, 화학 무기 사용 또는 의도하지 않은 핵폭발과 같은 의도하지 않은 결과가 발생할 가능성을 방지하기 위해 AI가 생사를 가르는 결정을 내리는 데 특히 중요합니다.
  • AI 법률 프레임워크: 다양한 법적 관련 상황에서 AI를 사용하는 것이 법적으로 미치는 영향에 관한 지침 및 표준.여기에는 법적 소송이나 보험 및 금융 청구에서 허용되는 증거의 특성, 위험 수용 계산과 같은 시나리오가 포함될 수 있습니다.

AI 안전 및 보안 프레임워크는 시작에 불과합니다

전 세계적으로 AI 사이버 위협의 위험에 초점을 맞추고 있다는 점은 고무적입니다.AI 안전 프레임워크는 혁신적이면서도 안전한 AI 미래를 구축하기 위한 필수 첫 단계입니다.하지만 이는 시작점일 뿐입니다.이상적으로는 인터넷 엔지니어링 태스크 포스 (IETF) 및 의견 요청 (RFC) 과 유사한 AI 안전 표준을 개발하고 반복하기 위해 협력하는 AI 및 산업 주제 전문가로 구성된 엘리트 집단이 있어야 합니다.

중요한 것은 조직에 다음과 같은 권한을 부여할 수 있는 방법도 고려해야 한다는 것입니다. 탄력성 구축 AI 기반 공격에 대응합니다.AI를 사용하면 범죄자가 더 쉽고 빠르게 공격을 시작할 수 있습니다.최선의 방어 수단은 AI 사이버 위협이 공격을 학습하고, 적응하고, 진행할 기회를 줄이기 위해 “학습 표면”을 줄이는 것입니다.

오늘 저희에게 연락하세요 AI 개발이 조직의 사이버 보안에 어떤 영향을 미칠 수 있는지 알아보십시오.

관련 주제

항목을 찾을 수 없습니다.

관련 기사

보안 침해 추정: 사이버 레질리언스 모범 사례
사이버 레질리언스

보안 침해 추정: 사이버 레질리언스 모범 사례

위반을 가정한다는 것은 적대적인 사고방식을 취하는 것을 의미합니다.이것이 사람, 프로세스, 기술에 대한 보안 투자에 대해 어떻게 생각하는지를 설명해 드리겠습니다.

IT 보안 팀이 이번 연휴에 받을 만한 선물 증정
사이버 레질리언스

IT 보안 팀이 이번 연휴에 받을 만한 선물 증정

악의적인 행위자의 추수 시기인 연휴에 대비하여 비즈니스를 준비하는 방법을 알아보세요.

사이버 보안 투자로부터 최고의 ROI를 얻기 위한 5가지 팁
사이버 레질리언스

사이버 보안 투자로부터 최고의 ROI를 얻기 위한 5가지 팁

투자에서 ROI를 추출하여 보안 태세를 개선하고, 위험을 완화하고, 강력한 보안 전략을 보장하는 방법을 알아보십시오.

AI를 신뢰할 수 없는 이유: AI를 이해하는 것이 혁신적일 수 있는 이유
사이버 레질리언스

AI를 신뢰할 수 없는 이유: AI를 이해하는 것이 혁신적일 수 있는 이유

Illumio의 CTO이자 공동 창립자인 Illumio의 CTO이자 공동 설립자가 AI “기술 경계”가 생각보다 작다고 믿는 이유와 이것이 우리가 AI를 사용하는 방식에 어떻게 영향을 미치는지 알아보세요.

AI 및 머신 러닝이 제로 트러스트 세분화를 가속화하는 방법
제로 트러스트 세그멘테이션

AI 및 머신 러닝이 제로 트러스트 세분화를 가속화하는 방법

AI 및 ML의 혁신이 제로 트러스트 세그멘테이션의 구현을 가속화하는 강력한 도구가 될 수 있는 방법을 알아보십시오.

AI에 통신 문제가 있는 이유
사이버 레질리언스

AI에 통신 문제가 있는 이유

AI 관련 기술이 '크로스 사일로 (cross-silo) '커뮤니케이션으로 어려움을 겪고 있는 이유를 알아보세요.

Assume Breach.
Minimize Impact.
Increase Resilience.

Ready to learn more about Zero Trust Segmentation?