-
IT·보안
진짜 같은 가짜 딥페이크
딥페이크를 활용한 범죄가 최근 사회적으로 크게 문제가 되고 있습니다. 딥페이크를 악용하여 여성을 대상으로 한 성적 합성물이 텔레그램 메신저를 통해 무차별적으로 유포되었습니다. 피해자는 초·중·고교생의 미성년자를 비롯한 교사, 군인까지 포함된 것으로 알려졌으며, 내 주변 친구나 가족의 사진이 이용된 것은 아닐까 하는 불안감이 생기기도 합니다. 딥페이크란 무엇이며 최근 딥페이크로 인해 발생하고 있는 문제와 이에 대한 대응 방안에는 어떤 것들이 있을까요? 딥페이크(Deepfake)란 컴퓨터가 스스로 외부 데이터를 조합, 분석하여 학습하는 기술인 딥러닝(Deep learning)과 가짜를 뜻하는 페이크(Fake)의 합성어입니다. 즉, 인공지능 기술을 이용하여 진위 여부를 구별하기 어려운 가짜 이미지나 영상물을 뜻합니다. 생성형 AI가 발달하면서 이제는 진짜 영상과 딥페이크로 만든 가짜 영상을 구별하기가 어려울 정도로 정교해지고 있습니다. 딥페이크는 원본 영상에서 얼굴 부분을 추출한 후 합성하고자 하는 얼굴 데이터를 학습시킨 후 GAN기술을 이용하여 원본 영상의 얼굴을 대상의 얼굴로 대체합니다. 이후 자연스러운 연결을 위해 세부적인 조정 작업을 거치면 실제 인물이 말하는 것처럼 보이는 영상이 완성됩니다. GAN(Generative Adversarial Network) 기술은 생성적 적대 신경망’이라는 딥러닝 알고리즘으로 진위를 감별하는 알고리즘과 새로운 이미지를 만드는 알고리즘이 경쟁을 통해 학습하며 실제에 가까운 거짓 데이터를 만드는 기술입니다. 딥페이크 기술을 목적에 맞게 사용한다면 긍정적인 사례로 활용할 수 있습니다. 역사적 인물을 재현함으로써 생생한 역사교육을 진행할 수 있으며, 영상제작 비용을 절감할 수 있습니다. 딥페이크를 통한 영상으로 감동을 주었던 사연도 있었습니다. 드라마 전원일기에 출연했던 故박윤배 배우를 대역을 맡은 사람에게 얼굴과 목소리를 합성하여 가상인간으로 구현하였습니다. 출연 배우들은 가상인물임을 알면서도 지난 시간을 회상하고 생전에 하지 못했던 말들을 하며 위로를 나누었고, 이 모습은 대중들에게 큰 감동을 주었습니다.그러나 딥페이크 기술과 음성 복제 기술이 발전함에 따라 이를 악용하는 사례들이 점점 많아지고 있습니다. 딥페이크 기술을 나체 영상 등 음란물에 불법 합성하여 유통하는 범죄에 사용하면서 논란이 되고 있습니다. 딥페이크 성범죄 사태는 인하대 및 서울대에서 여학생의 얼굴을 음란물에 합성한 딥페이크 영상물이 텔레그램에서 유포한 사건이 알려지면서 시작되었습니다. 이후에 전국적으로 수천명이 참여하고 있는 사실이 알려졌고, 기술의 발전으로 인해 디지털 성범죄가 증가한다는 논란이 확대되기도 했습니다.이처럼 계속해서 증가하는 딥페이크 피해를 방지하기 위해 세계 각국에서는 다양한 노력을 기울이고 있는데요. 대표적으로 논의되고 있는 방안 중 하나는 워터마크 의무화입니다. AI워터마크는 AI기술로 제작한 콘텐츠에 삽입되는 표식입니다. 눈에 띄는 표식을 넣을수도 있고, 보이지 않는 정보를 심는 방법도 있습니다. 실제와 구분하기 어려운 이미지와 영상, 음성을 동원한 가짜뉴스가 범람하고 성착취물 피해가 커지면서 세계 각국은 AI워터마크 도입을 검토하고 있습니다. 우리나라에서도 지난 5월 ‘새로운 디지털 질서 정립 추진계획’의 일환으로 AI생성물 워터마크 의무화를 논의하기도 했습니다. 또한 지난 6월 AI로 만든 음향, 영상, 이미지 등 콘텐츠에 가상 정보임을 명확하게 표시하도록 의무화하는 정보통신망법 개정안을 발의하였습니다. 개정안에서는 위반 시 정보제공자에게 1,000만원 이하의 과태료 및 플랫폼 기업은 표시 없는 AI생성물 삭제 의무를 부과하도록 하였습니다.최근 미국, 유럽 등에서는 딥페이크 성범죄에 대한 경각심이 커지면서 관련 법안이 만들어지고 있습니다. 미국 캘리포니아주에서는 딥페이크 성착취물을 배포·소지한 이들도 처벌할 수 있게 하는 법안이 추진중입니다. 호주, 영국 등에서도 최대 2년형의 징역형을 부과할 수 있는 법안이 제정되기도 했습니다.우리나라에서는 지난 9월 25일, 아동·청소년을 대상으로 한 딥페이크 성범죄 처벌을 강화하는 ‘딥페이크 성범죄 방지법’이 국회에서 의결되기도 했습니다. 이 법안은 딥페이크를 이용한 디지털 성범죄에 대한 처벌 강화를 골자로 한 법으로, 불법 딥페이크 성 착취물을 소지, 구입, 저장, 시청만 하더라도 징역 3년이하 또는 3,000만원 이하의 벌금형 등의 형사처벌을 받게 됩니다. 딥페이크를 이용한 범죄가 사회적 문제로 대두되면서 이를 막기위한 예방과 처벌도 중요하지만, 때문에 이러한 영상을 퍼뜨리지 못하게 막는 것 또한 중요합니다. 딥페이크의 순기능을 강화하면서 긍정적인 사례로 활용한다면 예술, 의료 등 다양한 분야에서 혁신적인 변화를 가져올 수 있을 것입니다. 딥페이크 기술을 악용하는 사례는 엄중히 처벌하고, 긍정적으로 활용할 수 있는 방안을 더 모색해보는 것은 어떨까요?
-
- 24.10.11
-
S-Mart
직장인의 업무 효율을 높여주는 AI툴
AI로 인해 우리 일상의 많은 부분이 변화하고 있습니다. 특히 챗 GPT와 같은 생성형 AI의 등장으로 업무 방식을 효율적으로 개선하고 있습니다. 생성형AI를 통한 글쓰기, 이미지 생성, 영상편집까지 가능하며, 창의적인 아이디어를 도출할 수 있습니다. 데이터 분석, 이메일 작성, 보고서 작성 등을 AI가 대신 처리해주어 업무를 보다 효율적으로 처리할 수 있습니다. 또한 AI를 통해 24시간내내 고객문의에 신속 대응할 수 있도록 하여 기업의 고객지원 서비스를 개선해주기도 합니다. 이처럼 이제는 AI를 잘 활용할 줄 아는 것이 경쟁력이 되는 시대인데요, 직장인의 업무 효율을 높여줄 수 있는 AI 툴에는 어떤 것들이 있을까요?인공지능 비서 Chat GPT출처: Chat GPT AI중에서 가장 대중화된 Chat GPT는 Open AI에서 개발된 생성형AI로 자연스러운 언어처리를 통해 사람처럼 대화를 나눌 수 있습니다. Chat GPT를 통해 콘텐츠를 생성하거나 코드를 작성하는 등 다양한 업무를 수행할 수 있습니다. 특히 프로그래밍 언어를 모르더라도 원하는 스크립트를 요청하면 스크립트를 만들어주며, 데이터를 표와 그래프로 표현할수도 있습니다. 이외에도 최신 시장 동향 분석을 통해 트렌드에 맞는 전략 수립과 보고서 작성에도 도움을 주며, 문서 검토나 개선 방안을 제안해주기도 해서 완성도 높은 결과물을 작성할 수 있습니다.협업과 아이디어가 필요할때, Miro출처: MiroMiro는 캔버스형 협업툴로 마인드맵, 브레인스토밍 등 새로운 아이디어를 도출하고 협업해야 할 때 유용하게 사용할 수 있어 기획직무에 종사하고 있는 분들에게 유용한 툴입니다. 입력한 텍스트를 분석하여 관련된 아이디어를 자동으로 도출하고 시각적으로 정리해주기 때문에 아이디어를 쉽게 확장할 수 있습니다. 또한 프로젝트 계획 및 관리를 위한 템플릿을 제공해주어 프로젝트의 일정을 손쉽게 계획하고, 진행 상황을 한눈에 살펴볼 수 있습니다.카카오톡으로 챗GPT를, ASK UP출처: AskUp우리나라를 대표하는 메신저 카카오톡에서도 Chat GPT를 이용할 수 있습니다. ASK UP이라는 인공지능 챗봇은 챗GPT에 OCR기술을 결합하여 사용자가 사진을 찍거나 전송하면 내용을 읽고 이해하여 답변해줍니다. 또한 다양한 분야에서 법률 조언을 받을 수도 있는데요.일상생활에서 법률과 관련한 궁금한 사항이 있을 때, 구체적인 상황을 설명하면 법에 저촉될 가능성이 있는지, 올바른 법적 대응 방법은 무엇인지 등 법률과 관련된 다양한 정보들을 얻을 수 있습니다. 또한 복잡한 코딩을 다양한 방식으로 구현하거나, 코드의 오류 수정이 가능하여 코딩작업을 할 때에도 유용하게 사용할 수 있습니다. ASK UP은 카카오톡을 이용하는 사용자들이 쉽게 접근할 수 있으며, 모바일을 통해 간편하게 AI를 이용할 수 있다는 장점이 있습니다.문서 작업에 필요한 도움을 받을 때, 뤼튼출처: 뤼튼 뤼튼 에디터는 기존의 워드프로세서나 한글프로그램에서 작업하던 문서를 웹 브라우저에서 바로 편집할 수 있습니다. 별도의 설치과정 없이 크롬 등 웹브라우저에서 바로 실행되는 형태로, 뤼튼을 통해 언제나 문서를 작성할 수 있습니다. 뤼튼에서 제공하는 문서편집기에 글을 작성하면 AI가 문맥을 파악하여 내용을 자동으로 완성해주는 형태로 작동합니다. 뤼튼 에디터를 통해 다양한 문서작성을 수월하게 할 수 있습니다. 또한 뤼튼은 GPT4기반의 AI검색 기능을 제공하여 사용자들이 최신 정보와 뉴스를 쉽게 찾을 수 있도록 도와주기도 합니다.30초만에 PPT를 만들 수 있는 Gamma출처: Gamma Gamma는 PPT안에 들어갈 내용만 입력한다면 몇 초 만에 빠르게 생성해주는 생성형AI툴입니다. 만들고자 하는 PPT의 토픽을 입력한 후, Gamma에 포함되어 있는 다양한 디자인 및 템플릿 요소를 선택하면 PPT가 금방 만들어집니다. 그러나 AI가 만들어준 대로만 사용하기에는 디자인이나 내용면에서 부족할 수 있기 때문에 완성도 높은 PPT를 만들기 위해서는 추가적인 작업이 필요합니다. 프로젝트의 시각화가 필요할때, Whimsical출처: Whimsical회의나 논의한 내용을 정리할 때, 표나 차트로 시각화하여 보면 좀더 편리하지 않을까요? Whimsical은 마인드맵, 플로우차트 등 온라인 시각화가 필요할 때 도와주는 AI툴입니다. 다양한 템플릿과 차트를 제공하고 있으며, UX디자인, 프로젝트 관리 등 다양한 분야에서 사용될 수 있습니다. 핵심 키워드를 입력하면 1분도 지나지 않아 키워드와 관련된 다양한 마인드맵을 그려주는데요. 이를 통해 회의에서의 아이디어를 효과적으로 공유하고, 업무의 핵심을 파악하는데 도움을 주어 회의시간을 단축시켜줄 수 있습니다. 물론 인공지능의 한계도 존재합니다. 분석과 답변 능력은 뛰어나지만 부정확한 허위 사실이 포함되더라도 법적으로 책임을 물을 수 없기 때문에 반드시 한 번 더 점검해야 합니다. 또 원하는 결과물을 얻기 위해서는 필요한 질문들을 구체적으로 적어야 합니다. 이제는 AI를 누구나 사용할 수 있는 기술이 되었습니다. AI툴을 업무할 때 알맞게 활용하여 업무의 효율성을 높이고 ‘일잘러’가 되어보는 것은 어떨까요?
-
- 24.09.09
-
IT·보안
생성형 AI 창작물의 주인은?
10년 전만 해도 인공지능은 단순 노동·반복형 기술만을 대체할 것으로 예측되었습니다. 그러나 생성형 인공지능이 등장하면서 창작의 영역까지 대신하고 있습니다. 그렇다면 인공지능이 만든 창작물의 주인은 누구일까요?생성형 AI 창작물 사례는?제이슨 앨런, 스페이스 오페라 극장, 2022, 이미지 출처: NY Times생성형 AI로 만든 그림 ‘스페이스 오페라 극장’이 콜로라도주 박람회의 연례 미술대회에서 1등 상을 수상하였습니다. 텍스트를 입력하면 그래픽으로 바꾸는 AI를 사용하여 제작한 이 작품에 대해 다른 예술가들은 부정행위라며 반발하기도 했습니다. 그러나 주 박람회를 감독하는 관계자는 창작의 일부로 디지털 기술을 사용하는 것은 예술적 관행으로 보기 때문에 수상에는 문제가 없다고 주장하였습니다.우리나라에서는 방탄소년단, 뉴진스, 블랙핑크 등 국내 유명연예인들의 사진을 학습한 AI이미지가 온라인에 확산되기도 했습니다. 이렇게 K-POP아티스트들의 실제 모습과 똑같이 재현된 이미지는 다른 곳에 활용되기도 합니다.이미지 뿐만 아니라 목소리도 AI를 통해 변조할 수 있습니다. 최근 인기를 끌었던 가수 비비의 ‘밤양갱’노래에 다른 가수의 목소리를 입힌 커버곡들이 유튜브에서 수백만에 이르는 조회수를 기록하기도 했습니다. 실제로 부른 것이 아닌 AI로 만들어진 커버곡이지만 기존 노래가 아닌 색다른 목소리를 입힌 영상으로 높은 조회수를 기록하며 인기를 끌었습니다. AI출처 및 참고자료
-
- 24.06.12
-
IT·보안
그림도 알아보는 AI, LMM
2023년을 뜨겁게 달군 ChatGPT에 대한 관심은 여전히 뜨겁습니다. 원하는 질문에 대한 빠른 답변과 창작, 코딩까지 가능하여 인간을 대체할 수도 있다는 우려가 나오기도 했습니다. ChatGPT에 텍스트를 입력하면 원하는 답변을 얻을 수 있지만, 이미지를 공유하는 것으로 대체할 수 있다면 좀더 편리하지 않을까요? 최근 출시된 ChatGPT-4와 ChatGPT-4V는 시각기능이 추가되어 텍스트와 이미지를 함께 처리할 수 있습니다. 이처럼 텍스트, 이미지, 음성 등 다양한 형태를 지원하는 것을 ‘멀티 모달’이라고 하며, 멀티모달이 가능한 거대언어모델을 LMM(Large Multi-modal Model)또는 MLM(Multi-modal Large Model)이라고 합니다. 오픈AI의 ChatGPT와 마이크로소프트의 Copilot과 같은 생성형AI는 모두 거대 언어모델(LLM)을 기반으로 구현되어 있습니다.거대언어모델(LLM) = ChatGPT?ChatGPT가 주목받으면서 거대 언어 모
-
- 24.03.20
-
IT·보안
2024년도 가트너에서 선정한 사이버 보안 트렌드는?
IT분야의 연구와 자문을 담당하고 있는 글로벌 연구조사 기업 가트너(Gartner)에서는 매년 IT분야의 비즈니스에 중요한 기술을 발표하고 있습니다. 올해에는 2024년도 사이버 보안 트렌드 6가지를 발표하였습니다. 가트너에서 발표한 자료들은 많은 기업과 정부의 참고자료가 되기도 하는데요, 가트너에서 발표한 2024년 사이버 보안 트렌드를 함께 살펴보겠습니다.생성형 인 결정을 내릴 수 있는 역량을 갖추게 되면서 사이버 보안 리소스를 보다 효과적으로 활용할 수 있게 되었다”라고 밝혔습니다.회복탄력성 중심의 서드파티 위험 관리서드파티의 사이버보안 사고가 불가피해짐에 따라, 보안 리더는 복원력 중심의 투자에 더 집중하고 선제적 실사 활동에서 벗어나도록 압력을 받고 있습니다. 이러한 상황에서는 서드파티 서비스의 리스크 관리를 강화하고 중요한 외부파트너와 상호이익이 되는 관계를 구축하여 가장 중요한 자산을 지속적으로 보호해야 합니다. 애디스콧 애널리스트는 “사이버보안 위험이 가장 높은 서드파티와의 계약에 대한 비상 계획을 강화하는 것부터 시작해야 한다”며, “서드파티별로 인시던트 플레이북(Incident Playbook)을 만들고, 테이블탑 훈련(Tabletop Exercise)을 실시하며, 적시에 엑세스 권한을 취소하고 데이터를 파기하는 등의 명확한 오프보딩 전략(Offboarding Strategy)을 정의해야 한다”고 조언했습니다.지속적인 위협 노출 관리 프로그램의 추진력 확보지속적인 위협 노출 관리(Continuous Threat Exposure Management, 이하 CTEM)는 조직이 디지털 및 물리적 자산의 접근성, 노출 및 악용 가능성을 지속적으로 평가하는 데 사용할 수 있는 실용적이고 체계적인 접근방식입니다. 평가 및 수정 범위를 인프라 구성 요소가 아닌 위협 요소 또는 비즈니스 프로젝트에 맞춰 조정함으로써 취약성과 패치불가한 위협을 강조할 수 있습니다.가트너는 2026년까지 CTEM 프로그램을 기반으로 보안 투자에 우선순위를 두는 기업은 침해사고의 2/3을 줄일 수 있을 것으로 예측합니다. 보안 리더는 하이브리드 디지털 환경을 지속적으로 모니터링하여 취약점을 조기에 식별하고 최적의 우선순위를 지정하여 기업이 공격받을 수 있는 표면을 강화할 수 있도록 지원해야 합니다.사이버보안 성과 개선을 위한 IAM역할 확대더 많은 기업이 보안에 대한 ID우선 접근 방식으로 전환함에 따라 네트워크 보안 및 기타 기존 제어에서 ID및 액세스 관리(Identity & Access management, IAM)로 초점이 옮겨지면서 사이버보안 및 비즈니스 성과에 중요한 역할을 하고 있습니다. 보안 프로그램에서 IAM의 역할이 더욱 강조될 것으로 전망되지만, 동시에 복원력 향상을 위해 근본적인 보안과 시스템 강화에 집중해야 합니다.
-
- 24.03.07
-
이벤트
[이벤트] 가로세로 낱말 퀴즈
신시웨이의 3월 이벤트가 찾아왔습니다. 이번 이벤트는 가로세로 낱말퀴즈를 준비하였습니다.평소 신시웨이 뉴스룸을 주의깊게 봐주신 분들은 어렵지않게 풀 수 있을 것 같은데요.모르시겠다면 아래 힌트를 참고하여주세요!▼힌트보기▼가로 열쇠 1가로 열쇠 2가로 열쇠 3세로 열쇠 1*정답 발표*가로열쇠1: 생성형AI가로열쇠2: 데이터보안가로열쇠3: 신시웨이세로열쇠1: 비정형데이터*당첨자 발표*강*현(5365) / 박*이(7356) / 배*(1806)이*연(8019) / 임*우(9265) / 정*필(8947) / 주*수(2579)
-
- 24.03.05
-
IT·보안
AI시대, 인공지능의 규제
2023년은 AI에 대한 관심이 그 어느때보다 뜨거웠습니다. 특히 챗GPT를 시작으로 각종 빅테크 기업에서 생성형(Generative)AI에 대한 연구·개발이 이루어지기도 했습니다.AI는 우리 삶을 편리하게 해주지만, 예기치 못한 변수를 만들기도 합니다. 대표적으로 AI를 통한 허위정보 생성, 차별적 발언, 개인정보 유출, 딥페이크 피싱, 보안이슈 등의 문제가 있습니다. 이러한 문제들 때문에 세계각국에서는 AI로 인한 문제들을 예방하고, AI를 올바르게 사용하기 위한 규제를 시행하고 있습니다.생성형 AI, 어떤 문제가 있을까?생성형 AI의 가장 큰 문제는 환각 현상(할루시네이션, Hallucination)입니다. 환각 현상은 생성형 AI가 사실과 관련 없는 정보를 생성하는 것을 뜻하며, AI가 정보를 처리하는 과정에서 발생하는 대표적 오류입니다. 특히 챗GPT에 일어난 적이 없는 역사적 사건을 질문하면 챗GPT는 그 사건과 유사한 사건을 학습한 데이터를 기반으로 그럴듯하지만 잘못된 대답을 생성합니다. 이러한 할루시네이션은 잘못된 정보의 확산 및 윤리적·도덕적 문제로 이어질 수 있습니다.이에 세계적인 국제학술지 네이처(Nature)에서는 지난 6월 생성형AI를 사용한 사진, 비디오, 일러스트, 그래프 이미지 등의 게재를 금지하였습니다. 네이처에서는 법적 저작권 문제 및 허위 정보 확산이 가속화될 수 있어 생성형 AI를 활용해 얻은 데이터나 이미지 사용을 금지하였습니다.생성형AI를 통해 제작된 허위 뉴스를 통한 거짓 정보 확산의 위험도 있습니다. 실제로 미국에서는 특정 집단이 생성형 AI를 통해 바이든 대통령의 음성을 조작하였습니다. 원본 비디오 영상에서는 “우크라이나를 돕기 위해 탱크를 지원하자”는 발언이었으나, 음성 생성AI기술을 통해 트랜스젠더에 대해 비난하는 발언으로 변형되었습니다. 출처: Youtube, SBS뉴스이렇듯 AI로 인해 파생되는 다양한 문제를 해결하기 위해 국제기구·각국의 정부·기업 차원에서 노력을 기울이고 있습니다.유럽의 AI Act2021년 유럽연합위원회(EC)는 AI를 위한 규제 및 법적 프레임워크를 처음으로 제안하였습니다. 이후 2023년 12월 8일 유럽연합 집행위원회(EC)와 유럽의회, EU 27개 회원국 대표는 AI법안에 합의하며 세계 최초로 인공지능 규제를 위한 법 ‘AI Act’를 통과시켰습니다. AI Act는 오는 2026년부터 시행 예정이며, AI를 겨냥한 첫 법률로, 챗GPT와 같은 생성형 AI를 포함한 얼굴 인식, 지문스캔 등 생체인증 툴에 대한 규제도 포함하고 있습니다. AI Act는 AI의 위험성을 분류하고, 투명성을 강화하며, 규정을 준수하지 않는 기업에 벌금을 부과하는 내용 등이 담겨습니다. 이외에도 AI에 대한 포괄적인 규제를 위해 기업에서 준수해야할 내용으로 기술문서작성, EU저작권법 준수, 훈련에 사용된 콘텐츠에 대해 요약을 구체적으로 제공하는 것 등을 포함하고 있습니다. 규정을 위반하는 기업은 750만 유로(약 107억원)에서 최대 3500만유로(약497억원)또는 전 세계 매출 대비 7%에 이르는 벌금을 부과받습니다. 이를 구글이나 마이크로소프트와 같은 기업에 적용할 경우 벌금만 수십억달러(수조원)에 이르는 금액입니다.국내의 인공지능관련 규제 개인정보보호위원회는 2023년 ‘인공지능시대 안전한 개인정보 활용 정책방향’을 발표하였습니다. 해당 정책은 AI를 통한 프라이버시 침해 위험은 최소화하면서, AI의 발전에 필요한 데이터는 안전하게 활용하는 것에 중점을 둔 정책입니다. 이외에도 인공지능 데이터에 관한 개인정보 강화 및 고위험군 인공지능에 대한 규제 필요성에 따라 아래와 같은 법안들이 발의되기도 했습니다.이외에도 미국에서는 AI가 미칠 사회·경제적 타격을 줄이기 위해 연방정부 차원의 조치를 도입한다고 발표하였습니다. AI로 인해 대체될 인간의 일자리에 대해 조사하고, AI가 주도하는 채용 시스템이 각종 차별을 만들지 못하도록 방지하는 지침을 작성할 것으로 보입니다. 또한 개인정보 보호와 관련하여 연방정부가 AI를 활용해 시민들의 정보를 수집할 때 AI기술이 어떻게 사용되는지 공개하도록 하는 내용이 담길 예정이라고 합니다.구글, 메타, MS 등 AI기업7곳에서는 AI로 생성·변조된 음성·영상 콘텐츠를 사용자가 구별할 수 있도록 도와주는 ‘디지털 워터마킹’시스템을 개발할 것임을 밝혔습니다. 디지털 워터마킹이란 사진 등의 데이터에 저작권 등의 정보를 삽입하여 관리하는 기술을 뜻합니다. 특히 AI를 활용한 거짓 사진이나 영상이 다가오는 미국 대선에 영향을 미칠 수 있어 구글에서는 미국 대선 콘텐츠에 AI기술이 쓰였을 경우 이를 밝히도록 요구할 예정입니다.
-
- 24.01.23
-
IT·보안
2023년 사이버 보안 위협 분석과 2024년 사이버 보안 위협 전망
과학기술정보통신부, 한국인터넷진흥원은 사이버 위협 인텔리전스 네트워크와 함께 사이버 위협에 대한 선제적 예방 및 대응체계 강화를 위해 「2023년 사이버 보안 위협 분석과 2024년 사이버 보안 위협 전망」을 발표하였습니다. 2023년 사이버 보안 위협 보안프로그램 취약점과 SW개발자 대상 공급망 공격 확대국내에서는 온라인 금융거래를 이용하기 위해 개인용 컴퓨터에 보안 인증 프로그램을 설치해야 합니다. 또한, 기업에서 보안 강화를 위한 프로그램을 안전하게 사용하려면 수시로 보안 업데이트를 해야 합니다. 이때 필요한 프로그램을 대상으로 하는 소프트웨어 공급망 공격이 올해 특히 많이 발생하였습니다.SW공급망 공격은 초기 탐지와 조치가 어렵고 그 파급력도 크기 때문에 공격자들에게는 매우 효율적인 공격으로 이용되고 있고, 이러한 SW공급망 공격은 앞으로도 계속 증가할 것으로 예측됩니다. 개인정보를 노려 진화하는 메신저 사칭 공격과 피해 재확산‘Meta’ 사칭해 기업 페이스북 계정 노리는 피싱 메일 유포텔레그램’ 업데이트 메시지? 개인정보 빼가는 해킹 메시지경찰관까지 당하는 ‘부고장 스미싱’…피해액 4년간 8배 급증포털이나 메신저 등 이용자가 많은 서비스를 정교하게 사칭하여 이용자 개인정보를 노리는 사회공학적 기법의 피싱 공격이 갈수록 진화하고 있으며, 유출된 개인정보를 이용하여 또 다른 피해로 연결되는 사례도 급증하였습니다. 실제로 2023년 피싱 사이트의 탐지 및 차단 건수는 전년대비 약 1.8배 증가하였습니다.지난 7월 텔레그램 공식 계정인 것처럼 위장한 피싱사이트를 통해 개인정보와 인증번호 입력을 요구하여 계정을 탈취하고, 탈취한 계정에 등록된 지인들에게 마치 본인이 보낸 것처럼 피싱사이트 주소를 전달하는 새로운 해킹 수법이 나타났습니다. 또한 택배 배송이나 교통범칙금, 지인부고 등을 사칭하는 문자메시지에 링크주소(URL) 클릭을 유도하여 악성파일을 설치하려는 스미싱 문자가 올해 대량 유포되는 등 문자나 메신저 채팅을 이용한 해커들의 공격도 끊임없이 확산되고 있습니다.크리덴셜 스터핑(Credentail Stuffing)이란 타 사이트에서 수집한 사용자의 계정정보를 무작위로 대입하여 로그인을 시도하는 공격방식입니다. 크리덴셜 스터핑을 통해 하나의 로그인 정보만 탈취하면 다른 계정도 함께 유출되기 때문에 위험할 수 있습니다.2023년에는 국내 기업과 기관들을 대상으로 하는 크리덴셜 스터핑 공격이 연이어 발생하였습니다. 인터파크 78만건, 한국고용정보원에서 23만건의 개인정보가 유출되었으며, 지마켓의 상품권 번호 도용, 스타벅스의 카드 충전금 도용 등 금전적 피해를 입히는 공격으로 확산되기도 했습니다. 각 기업, 기관들은 로그인 시도 횟수 제한, 2차 인증 기능 도입 등 이용자 인증 관련 보안성을 더욱 강화할 필요가 있습니다.랜섬웨어 공격과 산업 기밀정보 공개를 빌미로 하는 금전 협박기업 내부의 산업 기밀정보 유출과 함께 데이터 암호화를 통한 복구 비용 지불을 요구하는 금전 취득 목적의 공격이 지속적으로 발생하였으며, 국가 배후의 해킹 그룹이 상대국의 중요 인프라의 운영을 방해할 목적으로 랜섬웨어 공격을 실행하기도 했습니다. KISA 침해사고 신고를 분석해보면 사이버 보안 위협은 매년 지속적으로 증가했지만 랜섬웨어 공격 건수는 작년대비 감소하였습니다.하지만 최근 랜섬웨어 공격은 주로 중소기업과 제조업종을 대상으로 하여 먼저 기업의 기밀정보를 빼내고, 운영서버와 백업서버 자료까지 찾아 암호화하여 금전을 요구하는 복합적인 방식으로 이루어졌습니다.KISA 침해사고 신고를 분석해보면, 사이버 보안 위협은 매년 지속적으로 증가했지만 랜섬웨어 공격 건수는 작년대비 감소하였습니다. 하지만 최근 랜섬웨어 공격은 주로 중소기업과 제조업종을 대상으로 기업의 기밀정보를 빼내고, 운영서버와 백업서버 자료까지 찾아 암호화하여 금전을 요구하는 복합적인 방식으로 이루어져 공격 양상이 더욱 악랄해졌습니다. 랜섬웨어 피해를 신고한 중소기업의 약 50.3%는 데이터 백업체계를 구축하였으나, 나머지 기업들은 여전히 데이터 복구에 어려움을 겪고 있는 것으로 보입니다.2024년 사이버 보안 위협 전망피해 자체를 모르게 하는 은밀하고 지속적인 SW 공급망 공격해킹 그룹은 인터넷에 무상으로 공개된 소스 코드나 SW들을 프로그램 개발자들이 많이 이용하는것을 악용해 유명한 오픈소스를 사칭하거나 변조된 코드를 배포하여 개발자 대상 공격을 확대해 나갈 것입니다. SW공급망을 통한 공격 시도도 계속 증가할 것으로 보이며, SW제작과 운영단계에서 악성코드가 포함되어 배포되면 고객사 등 다른 이용자에게도 연쇄적인 피해를 줄 수 있습니다.생성형 AI를 악용한 사이버 범죄 가능성 증가챗GPT를 화두로 한 생성형 인공지능(AI)기술의 급속한 발전은 다양한 분야에서 혁신을 가져왔습니다. 그러나 생성형 AI는 사용자가 보안에 대한 전문적인 지식이 없더라도 손쉽게 악성코드 제작뿐 아니라 취약점 확인, 음성 위변조 등 다양한 사이버 공격에 악용될 수 있는 위험성도 내포하고 있습니다.실제로 공격 대상이 쉽게 속을 수 있도록 정교하게 이메일 본문을 작성하고, 악성 프로그램을 제작해주는 등 피싱 이메일 공격을 도와주는 생성형 인공지능(AI)기반의 사이버 범죄 도구가 최근 발견되기도 했습니다. 이에 따라 생성형 인공지능(AI)을 악용하는 사이버 범죄에 적극적으로 대응할 수 있는 관련 보안기술의 필요성도 높아지고 있습니다.정치, 사회적 이슈를 악용하는 사이버 위협 고조2024년은 국내외 대규모 정치적 행사가 예정되어있습니다. 한국의 국회의원 총선거, 미국의 대통령 선거 등이 예정되어 있어 그 어느 해보다도 정치, 사회적으로 많은 이슈와 관심이 집중될 것으로 예상됩니다. 이처럼 국가적인 중요한 행사가 있을 때 사회 혼란을 노리는 사이버 위협 가능성도 함께 높아집니다. 해킹 그룹은 목표물을 공격하기 위한 사전작업으로 목표 관계자와 주변을 SNS로 확인하고, 피싱 공격, 악성코드 감염, 해킹 등을 통해 얻은 시스템 관리자 등의 계정정보를 이용합니다. 지금까지 과학기술정보통신부와 KISA에서 발표한 2023년 사이버 보안 위협 분석 및 2024년 전망에 대해 알아보았습니다. 공격자들은 사회, 경제 전반의 디지털 전환 흐름에 따라 새로운 취약점을 찾아 진화하고 있다고 합니다. 따라서 기관, 기업 등 조직은 단순히 보안시스템을 도입하는 것을 넘어 만일의 상황에 대비하여 사이버 침해를 당하더라도 업무 중단이 되지 않도록 백업체계를 마련하고 신속한 복구 프로세스를 반복하여 점검하고 강화해야 할 것입니다.출처 및 참고자료2023년 사이버 보안 위협 분석과 2024년 사이버 보안 위협 전망
-
- 24.01.02
-
IT·보안
가트너 선정 2024년 주목해야 할 주요 10개 기술 트랜드
글로벌 연구조사 기업 가트너(Gartner)에서는 ‘가트너 상위 전략 기술 트렌드’보고서를 통해 매년 주요 기술 트렌드를 발표하고 있습니다. 올해 10월 17일에 가트너가 발표한 2024년 기업들이 주목해야 할 10대 전략 기술 트렌드 보고서에서는 생성형 올해 가장 센세이션을 일으켰던 생성형 AI를 비롯한 다양한 기술 트랜드를 분석하였습니다. AI신뢰, 위험 및 보안 관리 (AI Trust, Risk and Security Management)생성형 AI의 대중화로 인해 기업뿐만 아니라 일반 대중들까지 AI에 대한 접근이 증가하고 있습니다. 그러나 AI는 아직 해결해야 할 윤리적, 사회적 문제들이 남아있습니다. AI를 이용한 가짜뉴스와 딥페이크 뿐만 아니라 챗GPT를 활용하여 팬데믹을 일으킬 수 있는 신종 감염병을 만들 수 있다는 논문이 발표되기도 했습니다. AI를 활용하여 위협적인 감염병까지 만들 수 있다는 것입니다.이와 같은 AI의 문제에 대응하기 위해 등장한 AI TRiSM은 AI Trust, Risk and Security Management의 준말로 AI의 신뢰성, 위험성 및 보안 관리를 중심으로 AI를 더욱 안전하게 활용할 수 있는 전략을 의미합니다. AI를 통제, 제어할 수 있는 적절한 안전장치가 없다면, AI가 주는 편리하고 긍정적인 면보다도 초래할 부정적 영향이 더 커질 수 있음을 고려해야 할 것입니다. 지속적인 위협 노출 관리(Continuous Threat Exposure Management/CTEM)디지털 변환과 클라우드 기반 서비스의 증가로 기업과 개인 데이터를 이전보다 훨씬 많이 보호해야 합니다. 그러나 해커들의 공격 기법은 계속 발전하여 기존의 보안 대책만으로는 부족한 실정입니다.CTEM은 기업에게 위협이 될만한 요소들을 검토하고 관리하는 것을 목표로 하는 것을 뜻합니다. 즉, 기업의 디지털 및 물리적 자산의 접근성, 노출 및 악용 가능성을 지속적으로 평가하고 관리하는 방식을 말합니다. 특히 이제는 모든 데이터가 클라우드 형태로 보관, 활용되기 때문에 CTEM 프로그램을 기반으로 기업의 예상치 못한 위험들까지 관리해야 합니다. 지속가능한 기술 (Sustainable Technology)기술의 활용이 증가함에 따라, 기술이 환경에 미치는 영향에 대한 우려가 커지고 있으며, 지속가능한 기술이 중요해졌습니다. 기업들이 지속가능한 기술을 통해 사회적, 환경적 책임을 다하는 것이 기업의 가치평가에도 점점 중요한 요소로 부각되고 있습니다. 가트너는 2027년에는 기업들이 지속가능한 기술의 영향력에 따라 보상을 얻게 될 것으로 예측하기도 했습니다.플랫폼 엔지니어링(Platform Engineering)빠르게 변화하는 기술 트렌드에 따라 기업은 유연성이 높은 기술 플랫폼이 필요합니다. 이를 효과적으로 관리하기 위해 등장한 플랫폼 엔지니어링은 기업이 제품이나 서비스를 효과적으로 제공할 수 있도록 기술적 기반을 제공합니다. 플랫폼 엔지니어링을 활용하게 되면 하나의 공통된 플랫폼을 활용함으로써 불필요한 과정을 없애고 기업의 효율성을 높일 수 있습니다. AI증강 개발 (AI-Augmented Development)생성 AI가 등장했을 때, ‘프로그래머의 종말’이 우려되기도 했습니다. 그만큼 코드 작성 속도가 빠르고 정확도도 높기 때문인데요. 그러나 가트너는 생성 AI가 프로그래머의 자리를 대체하기 보다는 도우미로서의 역할을 할 것으로 보았습니다. 특히 코딩 및 테스트 과정, 애플리케이션의 설계 과정에서 작업 효율성을 향상하고 빠르고 정확한 개발을 도울 수 있습니다. 산업 클라우드 플랫폼(Industry Cloud Platform, ICP)산업 클라우드 플랫폼은 소프트웨어(SaaS), 플랫폼(PaaS), 서비스형 인프라(IaaS)기능을 결합하여 다양한 산업에 적합한 솔루션을 제공합니다. 이를 통해 기업들은 비즈니스의 변화, 데이터의 변화, 규제 변화 등에 빠르게 대응할 수 있게 됩니다. 가트너는 2027년까지 기업들은 산업 클라우드 플랫폼을 활용하여 기업 활동을 50%이상 가속할 것으로 예상하였습니다. 지능형 애플리케이션(Intelligent Application)지능형 애플리케이션은 AI기술을 활용하여 사용자의 요구 및 환경에 유연하게 적응하는 애플리케이션을 의미합니다. 지능형 애플리케이션을 통해 기업의 비즈니스 프로세스를 최적화하고 고객 경험을 향상시킬 수 있는데요, 가트너는 지능형 애플리케이션을 향후 3년 동안 가장 큰 영향을 미칠 기술로 지목하기도 했습니다.대중화된 생성 AI(Democratized Generative AI)생성 AI는 대화, 이미지, 동영상, 음악 등 새로운 콘텐츠와 아이디어를 만들어내는 인공지능입니다. 생성형 AI의 대표적인 사례 챗GPT는 올 한해 가장 큰 이슈가 되고 있기도 합니다. 가트너는 2026년까지 80%이상의 기업이 생성형 AI를 사용하거나 생성형 AI앱을 배포할 것으로 예측하고 있습니다. 이미 많은 기업에서는 생성형 AI를 활용하고 있으며, 이제는 대중들에게도 친숙하게 사용되고 있습니다.증강-연결된 인력 (Augmented Connected Workforce)증강 - 연결된 인력은 근로자의 가치를 최적화하기 위한 전략입니다. 증강 기술을 사용하여 사용자들의 능력을 강화하고 확장하는 것을 통칭하며, 여기에는 가상 현실, 컴퓨터 비전 등 다양한 기술이 포함됩니다. 이를 통해 업무에 필요한 기술이 더 빠르게 전파될수 있게 도움을 주어 기존 인력의 효율성과 기술 활용도가 크게 향상됩니다. 가트너는 2027년까지 기업의 25%가 증강 연결된 인력을 통해 효율성을 50% 높일 수 있을 것으로 예측하였습니다. 기계 고객 (Machine Customers)마지막으로 가트너는 미래엔 사람보다 커스토봇(Custobot)이라는 기계 고객이 거래를 주도하는 세상이 올 것으로 보았습니다. 커스토봇 즉, 기계 고객은 자율적으로 협상하고 대가를 지불해 상품과 서비스를 구매할 수 있는 비인간 경제 행위자를 말합니다. 이들은 정교한 AI를 기반으로 개인의 사용자 행동, 선호도, 피드백을 적극적으로 학습하고 소비자들이 실제 제품을 소비하는 데에도 결정적인 역할을 하게 될 것입니다. 또한 이로 인해 기업들은 커스토봇을 대상으로 제품을 판매하는 등 새로운 시장이 만들어질 것입니다. 지금까지 가트너에서 제시한 2024년 전략 기술 트렌드에 대해 알아보았습니다. 가트너에서는 10가지 기술 트렌드를 아래 그림처럼 빌더의 부상(Rise of the Builders), 투자 보호(Protect Your Investment), 가치 전달(Deliver the Value)로 묶어서 설명합니다. 과거와 달리 이제는 기술 트랜드의 변화 주기가 짧아졌기 때문에 예측하는 것이 어려워졌습니다. 2023년 한해동안 큰 센세이션을 일으킨 생성형 AI 챗GPT가 대표적인 예측의 어려움을 보여줍니다. 챗GPT가 발표되기 한달 전인 2022년 10월 17일에 가트너에서 2023년 기술 트랜드 보고서를 발표했으나, 해당 보고서에서는 생성형 AI의 유행을 예측하지 못하였습니다. 그러나 가트너의 2024년 기술 예측 보고서를 통해 현재의 트랜드를 더욱 정밀히 분석하여 이를 바탕으로 미래의 변화에 대응할 수 있지 않을까요?출처 및 참고자료Your Detailed Guide to the 2024 Gartner Top 10 Strategic Technology Trends
-
- 23.11.30
-
IT·보안
챗GPT 등장 1년, 생성형 AI가 가져온 변화
지금까지 글쓰기, 그림 그리기, 코딩 등의 창작 행위는 인간만이 가능한 행위로 여겨졌습니다. 그러나 인공지능(AI)의 발전과 함께 생성형 AI가 인간의 영역을 넘보는 시대가 되었습니다. 이제 생성형 AI는 챗GPT를 시작으로 새로운 기술 패러다임으로의 전환을 이끌고 있습니다. 생성형 AI란? 생성형 인공지능을 뜻하는 생성형AI(Generative AI)는 인간이 대량의 데이터를 입력하지 않아도 이미지 또는 텍스트와 같은 독창적이고 사실적인 콘텐츠를 생성합니다. 생성형 AI가 화두로 떠오르게 된 이유로는 오픈AI의 챗GPT가 큰 역할을 하였습니다. 챗GPT는 작년 출시 이후로 2개월만에 한달에 1억 명이 사용하였으며, 이젠 1주일에 1억명이 사용한다고 합니다. 생성형 AI가 가져온 변화는?업무 생산성 향상챗GPT를 업무에 활용하여 생산성을 높이는 경우가 늘어났습니다. 미국의 유명 비즈니스 매거진 ‘포춘’이 선정한 500대 기업의 92%가 챗GPT를 사용한다고도 합니다. 또한 최근 마이크로소프트(MS)는 챗GPT형태의 생성형 AI 코파일럿(Copilot)을 출시하였습니다. 코파일럿은 코드를 대신 작성해줄 뿐만 아니라 MS프로그램과 연계하여 워드, 엑셀, 파워포인트 작업을 대신 해주기도 합니다. 앞으로는 이러한 생성형 AI기술을 활용하는 근로자와 그렇지 못한 근로자간 업무 생산성의 격차가 점점 벌어질 것이라는 전망이 나오기도 합니다. 코딩 몰라도 만드는 챗봇개발자가 아니라도 누구나 AI챗봇을 만들 수 있게 되었습니다. 오픈AI는 맞춤형 AI챗봇을 만들 수 있는 유료서비스인 ‘GPT빌더’라는 서비스를 11월 9일 공개하였습니다. 원하는 목적을 설정하고, 주제에 대해 AI가 학습할 자료를 입력하면 코딩 없이도 나만의 맞춤형 챗봇을 만들 수 있습니다.구글의 생성형 AI구글 또한 생성형 AI 기반 검색 서비스(Search Generative Experience,SGE)를 한국 등 120개 국가 대상으로 확대한다고 밝히기도 했습니다. 구글의 대화형 챗봇 ‘바드’가 첫 출시부터 한국어를 지원한 데 이어, 생성형 AI의 검색 서비스도 한국어로 쓸 수 있게 된 것입니다. 생성형 AI검색은 검색결과와 함께 출처 링크를 표시하여 이용자들이 직접 정보를 확인하게 해주는 신기능입니다. GPT-4 터보 11월 6일, 오픈AI가 컨퍼런스를 통해 최신 AI모델 GPT-4터보를 발표하였습니다. GPT시리즈는 챗GPT의 기반이 되는 대규모 언어 모델로, GPT-4터보는 지난 모델에 비해 성능이 크게 개선되었습니다. GPT-4 터보의 대표적인 개선사항은 다음과 같습니다. 한 번에 입력할 수 있는 정보량 최대 16배 증가 업로드한 이미지의 내용 분석, 이미지 응답 생성 가능 텍스트를 자연스러운 오디오로 만들 수 있음 기업을 위한 미세조정과 저작권 보호 시스템 도입 이외에도 2023년 4월까지의 데이터로 훈련되어있어, 2021년 9월까지의 데이터로 학습한 기존 모델 GPT-4보다 최신 답변이 가능합니다. 또한 오픈AI에서는 일반 사용자가 직접 나만의 챗GPT를 만들 수 있는 서비스 GPTs를 공개하였습니다. GPTs는 코딩없이 일상적인 언어로 프로그래밍 가능하며, 오픈 AI는 해당 서비스를 GPT스토어에 업로드하여 거래 가능하도록 할 예정임을 밝혔습니다. 생성형 AI의 문제 생성형 AI의 대중화로 인해 기업뿐만 아니라 일반 대중들도 AI에대한 접근이 활발해지고 있습니다. 그러나 생성형 AI는 개인정보보호 문제, 범죄적 활용 등 다양한 사회적 문제를 만들어내고 있습니다. 특히 AI를 활용한 해킹 및 개인정보 유출의 위험성이 커지고 있습니다. 오픈 AI는 지난 3월 챗GPT에 접속한 전세계 이용자 일부의 이름, 이메일주소, 신용카드 번호 등의 개인정보를 유출하였으며, 유출된 정보에는 한국 이용자 687명의 정보가 포함되어 있었습니다. 이에 개인정보위는 오픈AI가 국내 보호법 상 의무 준수가 미흡하다는 점을 지적하며, 유출 인지 후 24시간 내에 신고하지 않은 신고의무 위반에 대해 과태료를 부과하였습니다. 이외에도 AI를 활용한 피싱사기 ‘AI피싱’도 성행하고 있습니다. AI피싱은 딥보이스, 딥페이크 등 AI기술에 기반하여 얼굴과 음성을 사기 피해자의 지인으로 변조한 뒤 상대방을 속여 돈을 가로채는 수법으로, 전 세계에서 발생하고 있습니다. 생성형 AI를 활용한다면 사람 목소리와 영상을 만들어내는 것이 어렵지 않기 때문에 이를 활용한 범죄의 문턱이 낮아지고 있습니다. 이처럼 AI가 생활에 침투한 상황에서 AI기술의 인권적 함의를 고려하고 무분별한 활용으로 인한 부작용을 막기 위해 유엔에서는 ‘AI 시대 인권규범’ 결의안이 채택되었습니다. AI인권에 미칠 영향에 대한 책임있는 평가가 필요하고, AI기술이 투명성과 설명 의무를 지녀야 한다는 내용입니다. EU에서는 AI법 ‘AI Act’를 통과시키며 챗GPT와 같은 생성형 AI시스템을 구축하려는 기업은 머신러닝에 투입한 데이터의 출처와 저작권을 공개해야 하고, AI서비스를 판매하고자 할 때는 출시전에 EU에 먼저 제출하여 위험이 없는지 조사를 받아야 합니다. 이 법안이 타결되면 2026년부터 EU국가들에 규제가 적용될 예정입니다. 생성형 AI시장의 전망 시장조사업체 IDC는 초거대 AI를 포함한 전세계 AI시장 규모가 2024년에는 5,543억 달러(약 700조원)에 달할 것으로 내다보았습니다. 국내 AI시장 역시 24년 3조 662억원 규모로 예상되며, 2023년부터 연평균 14.9% 성장하여 2027년까지 4조 4,636억원 규모에 이를 전망입니다. 또한 다양한 산업에서 AI채택을 가속화하는 가운데 생성형 AI에대한 수요는 지속적으로 증가할 것으로 보입니다. 생성형 AI는 이미 우리의 생활에 큰 영향을 미치고 있고, 업무 효율성과 정보 접근성을 크게 향상시키는 중요한 역할을 하고 있습니다. 그러나 윤리적 문제, 범죄 악용 문제, 정보보안 문제 등 해결해야 할 문제들도 아직은 남아있는 것 같습니다. 출처 및 참고자료 오픈 AI 유튜브
-
- 23.11.28