-
이벤트
[이벤트] 가로세로 낱말 퀴즈
신시웨이의 3월 이벤트가 찾아왔습니다. 이번 이벤트는 가로세로 낱말퀴즈를 준비하였습니다.평소 신시웨이 뉴스룸을 주의깊게 봐주신 분들은 어렵지않게 풀 수 있을 것 같은데요.모르시겠다면 아래 힌트를 참고하여주세요!▼힌트보기▼가로 열쇠 1가로 열쇠 2가로 열쇠 3세로 열쇠 1*정답 발표*가로열쇠1: 생성형AI가로열쇠2: 데이터보안가로열쇠3: 신시웨이세로열쇠1: 비정형데이터*당첨자 발표*강*현(5365) / 박*이(7356) / 배*(1806)이*연(8019) / 임*우(9265) / 정*필(8947) / 주*수(2579)
-
- 24.03.05
-
IT·보안
AI시대, 인공지능의 규제
2023년은 AI에 대한 관심이 그 어느때보다 뜨거웠습니다. 특히 챗GPT를 시작으로 각종 빅테크 기업에서 생성형(Generative)AI에 대한 연구·개발이 이루어지기도 했습니다.AI는 우리 삶을 편리하게 해주지만, 예기치 못한 변수를 만들기도 합니다. 대표적으로 AI를 통한 허위정보 생성, 차별적 발언, 개인정보 유출, 딥페이크 피싱, 보안이슈 등의 문제가 있습니다. 이러한 문제들 때문에 세계각국에서는 AI로 인한 문제들을 예방하고, AI를 올바르게 사용하기 위한 규제를 시행하고 있습니다.생성형 AI, 어떤 문제가 있을까?생성형 AI의 가장 큰 문제는 환각 현상(할루시네이션, Hallucination)입니다. 환각 현상은 생성형 AI가 사실과 관련 없는 정보를 생성하는 것을 뜻하며, AI가 정보를 처리하는 과정에서 발생하는 대표적 오류입니다. 특히 챗GPT에 일어난 적이 없는 역사적 사건을 질문하면 챗GPT는 그 사건과 유사한 사건을 학습한 데이터를 기반으로 그럴듯하지만 잘못된 대답을 생성합니다. 이러한 할루시네이션은 잘못된 정보의 확산 및 윤리적·도덕적 문제로 이어질 수 있습니다.이에 세계적인 국제학술지 네이처(Nature)에서는 지난 6월 생성형AI를 사용한 사진, 비디오, 일러스트, 그래프 이미지 등의 게재를 금지하였습니다. 네이처에서는 법적 저작권 문제 및 허위 정보 확산이 가속화될 수 있어 생성형 AI를 활용해 얻은 데이터나 이미지 사용을 금지하였습니다.생성형AI를 통해 제작된 허위 뉴스를 통한 거짓 정보 확산의 위험도 있습니다. 실제로 미국에서는 특정 집단이 생성형 AI를 통해 바이든 대통령의 음성을 조작하였습니다. 원본 비디오 영상에서는 “우크라이나를 돕기 위해 탱크를 지원하자”는 발언이었으나, 음성 생성AI기술을 통해 트랜스젠더에 대해 비난하는 발언으로 변형되었습니다. 출처: Youtube, SBS뉴스이렇듯 AI로 인해 파생되는 다양한 문제를 해결하기 위해 국제기구·각국의 정부·기업 차원에서 노력을 기울이고 있습니다.유럽의 AI Act2021년 유럽연합위원회(EC)는 AI를 위한 규제 및 법적 프레임워크를 처음으로 제안하였습니다. 이후 2023년 12월 8일 유럽연합 집행위원회(EC)와 유럽의회, EU 27개 회원국 대표는 AI법안에 합의하며 세계 최초로 인공지능 규제를 위한 법 ‘AI Act’를 통과시켰습니다. AI Act는 오는 2026년부터 시행 예정이며, AI를 겨냥한 첫 법률로, 챗GPT와 같은 생성형 AI를 포함한 얼굴 인식, 지문스캔 등 생체인증 툴에 대한 규제도 포함하고 있습니다. AI Act는 AI의 위험성을 분류하고, 투명성을 강화하며, 규정을 준수하지 않는 기업에 벌금을 부과하는 내용 등이 담겨습니다. 이외에도 AI에 대한 포괄적인 규제를 위해 기업에서 준수해야할 내용으로 기술문서작성, EU저작권법 준수, 훈련에 사용된 콘텐츠에 대해 요약을 구체적으로 제공하는 것 등을 포함하고 있습니다. 규정을 위반하는 기업은 750만 유로(약 107억원)에서 최대 3500만유로(약497억원)또는 전 세계 매출 대비 7%에 이르는 벌금을 부과받습니다. 이를 구글이나 마이크로소프트와 같은 기업에 적용할 경우 벌금만 수십억달러(수조원)에 이르는 금액입니다.국내의 인공지능관련 규제 개인정보보호위원회는 2023년 ‘인공지능시대 안전한 개인정보 활용 정책방향’을 발표하였습니다. 해당 정책은 AI를 통한 프라이버시 침해 위험은 최소화하면서, AI의 발전에 필요한 데이터는 안전하게 활용하는 것에 중점을 둔 정책입니다. 이외에도 인공지능 데이터에 관한 개인정보 강화 및 고위험군 인공지능에 대한 규제 필요성에 따라 아래와 같은 법안들이 발의되기도 했습니다.이외에도 미국에서는 AI가 미칠 사회·경제적 타격을 줄이기 위해 연방정부 차원의 조치를 도입한다고 발표하였습니다. AI로 인해 대체될 인간의 일자리에 대해 조사하고, AI가 주도하는 채용 시스템이 각종 차별을 만들지 못하도록 방지하는 지침을 작성할 것으로 보입니다. 또한 개인정보 보호와 관련하여 연방정부가 AI를 활용해 시민들의 정보를 수집할 때 AI기술이 어떻게 사용되는지 공개하도록 하는 내용이 담길 예정이라고 합니다.구글, 메타, MS 등 AI기업7곳에서는 AI로 생성·변조된 음성·영상 콘텐츠를 사용자가 구별할 수 있도록 도와주는 ‘디지털 워터마킹’시스템을 개발할 것임을 밝혔습니다. 디지털 워터마킹이란 사진 등의 데이터에 저작권 등의 정보를 삽입하여 관리하는 기술을 뜻합니다. 특히 AI를 활용한 거짓 사진이나 영상이 다가오는 미국 대선에 영향을 미칠 수 있어 구글에서는 미국 대선 콘텐츠에 AI기술이 쓰였을 경우 이를 밝히도록 요구할 예정입니다.
-
- 24.01.23
-
IT·보안
2023년 사이버 보안 위협 분석과 2024년 사이버 보안 위협 전망
과학기술정보통신부, 한국인터넷진흥원은 사이버 위협 인텔리전스 네트워크와 함께 사이버 위협에 대한 선제적 예방 및 대응체계 강화를 위해 「2023년 사이버 보안 위협 분석과 2024년 사이버 보안 위협 전망」을 발표하였습니다. 2023년 사이버 보안 위협 보안프로그램 취약점과 SW개발자 대상 공급망 공격 확대국내에서는 온라인 금융거래를 이용하기 위해 개인용 컴퓨터에 보안 인증 프로그램을 설치해야 합니다. 또한, 기업에서 보안 강화를 위한 프로그램을 안전하게 사용하려면 수시로 보안 업데이트를 해야 합니다. 이때 필요한 프로그램을 대상으로 하는 소프트웨어 공급망 공격이 올해 특히 많이 발생하였습니다.SW공급망 공격은 초기 탐지와 조치가 어렵고 그 파급력도 크기 때문에 공격자들에게는 매우 효율적인 공격으로 이용되고 있고, 이러한 SW공급망 공격은 앞으로도 계속 증가할 것으로 예측됩니다. 개인정보를 노려 진화하는 메신저 사칭 공격과 피해 재확산‘Meta’ 사칭해 기업 페이스북 계정 노리는 피싱 메일 유포텔레그램’ 업데이트 메시지? 개인정보 빼가는 해킹 메시지경찰관까지 당하는 ‘부고장 스미싱’…피해액 4년간 8배 급증포털이나 메신저 등 이용자가 많은 서비스를 정교하게 사칭하여 이용자 개인정보를 노리는 사회공학적 기법의 피싱 공격이 갈수록 진화하고 있으며, 유출된 개인정보를 이용하여 또 다른 피해로 연결되는 사례도 급증하였습니다. 실제로 2023년 피싱 사이트의 탐지 및 차단 건수는 전년대비 약 1.8배 증가하였습니다.지난 7월 텔레그램 공식 계정인 것처럼 위장한 피싱사이트를 통해 개인정보와 인증번호 입력을 요구하여 계정을 탈취하고, 탈취한 계정에 등록된 지인들에게 마치 본인이 보낸 것처럼 피싱사이트 주소를 전달하는 새로운 해킹 수법이 나타났습니다. 또한 택배 배송이나 교통범칙금, 지인부고 등을 사칭하는 문자메시지에 링크주소(URL) 클릭을 유도하여 악성파일을 설치하려는 스미싱 문자가 올해 대량 유포되는 등 문자나 메신저 채팅을 이용한 해커들의 공격도 끊임없이 확산되고 있습니다.크리덴셜 스터핑(Credentail Stuffing)이란 타 사이트에서 수집한 사용자의 계정정보를 무작위로 대입하여 로그인을 시도하는 공격방식입니다. 크리덴셜 스터핑을 통해 하나의 로그인 정보만 탈취하면 다른 계정도 함께 유출되기 때문에 위험할 수 있습니다.2023년에는 국내 기업과 기관들을 대상으로 하는 크리덴셜 스터핑 공격이 연이어 발생하였습니다. 인터파크 78만건, 한국고용정보원에서 23만건의 개인정보가 유출되었으며, 지마켓의 상품권 번호 도용, 스타벅스의 카드 충전금 도용 등 금전적 피해를 입히는 공격으로 확산되기도 했습니다. 각 기업, 기관들은 로그인 시도 횟수 제한, 2차 인증 기능 도입 등 이용자 인증 관련 보안성을 더욱 강화할 필요가 있습니다.랜섬웨어 공격과 산업 기밀정보 공개를 빌미로 하는 금전 협박기업 내부의 산업 기밀정보 유출과 함께 데이터 암호화를 통한 복구 비용 지불을 요구하는 금전 취득 목적의 공격이 지속적으로 발생하였으며, 국가 배후의 해킹 그룹이 상대국의 중요 인프라의 운영을 방해할 목적으로 랜섬웨어 공격을 실행하기도 했습니다. KISA 침해사고 신고를 분석해보면 사이버 보안 위협은 매년 지속적으로 증가했지만 랜섬웨어 공격 건수는 작년대비 감소하였습니다.하지만 최근 랜섬웨어 공격은 주로 중소기업과 제조업종을 대상으로 하여 먼저 기업의 기밀정보를 빼내고, 운영서버와 백업서버 자료까지 찾아 암호화하여 금전을 요구하는 복합적인 방식으로 이루어졌습니다.KISA 침해사고 신고를 분석해보면, 사이버 보안 위협은 매년 지속적으로 증가했지만 랜섬웨어 공격 건수는 작년대비 감소하였습니다. 하지만 최근 랜섬웨어 공격은 주로 중소기업과 제조업종을 대상으로 기업의 기밀정보를 빼내고, 운영서버와 백업서버 자료까지 찾아 암호화하여 금전을 요구하는 복합적인 방식으로 이루어져 공격 양상이 더욱 악랄해졌습니다. 랜섬웨어 피해를 신고한 중소기업의 약 50.3%는 데이터 백업체계를 구축하였으나, 나머지 기업들은 여전히 데이터 복구에 어려움을 겪고 있는 것으로 보입니다.2024년 사이버 보안 위협 전망피해 자체를 모르게 하는 은밀하고 지속적인 SW 공급망 공격해킹 그룹은 인터넷에 무상으로 공개된 소스 코드나 SW들을 프로그램 개발자들이 많이 이용하는것을 악용해 유명한 오픈소스를 사칭하거나 변조된 코드를 배포하여 개발자 대상 공격을 확대해 나갈 것입니다. SW공급망을 통한 공격 시도도 계속 증가할 것으로 보이며, SW제작과 운영단계에서 악성코드가 포함되어 배포되면 고객사 등 다른 이용자에게도 연쇄적인 피해를 줄 수 있습니다.생성형 AI를 악용한 사이버 범죄 가능성 증가챗GPT를 화두로 한 생성형 인공지능(AI)기술의 급속한 발전은 다양한 분야에서 혁신을 가져왔습니다. 그러나 생성형 AI는 사용자가 보안에 대한 전문적인 지식이 없더라도 손쉽게 악성코드 제작뿐 아니라 취약점 확인, 음성 위변조 등 다양한 사이버 공격에 악용될 수 있는 위험성도 내포하고 있습니다.실제로 공격 대상이 쉽게 속을 수 있도록 정교하게 이메일 본문을 작성하고, 악성 프로그램을 제작해주는 등 피싱 이메일 공격을 도와주는 생성형 인공지능(AI)기반의 사이버 범죄 도구가 최근 발견되기도 했습니다. 이에 따라 생성형 인공지능(AI)을 악용하는 사이버 범죄에 적극적으로 대응할 수 있는 관련 보안기술의 필요성도 높아지고 있습니다.정치, 사회적 이슈를 악용하는 사이버 위협 고조2024년은 국내외 대규모 정치적 행사가 예정되어있습니다. 한국의 국회의원 총선거, 미국의 대통령 선거 등이 예정되어 있어 그 어느 해보다도 정치, 사회적으로 많은 이슈와 관심이 집중될 것으로 예상됩니다. 이처럼 국가적인 중요한 행사가 있을 때 사회 혼란을 노리는 사이버 위협 가능성도 함께 높아집니다. 해킹 그룹은 목표물을 공격하기 위한 사전작업으로 목표 관계자와 주변을 SNS로 확인하고, 피싱 공격, 악성코드 감염, 해킹 등을 통해 얻은 시스템 관리자 등의 계정정보를 이용합니다. 지금까지 과학기술정보통신부와 KISA에서 발표한 2023년 사이버 보안 위협 분석 및 2024년 전망에 대해 알아보았습니다. 공격자들은 사회, 경제 전반의 디지털 전환 흐름에 따라 새로운 취약점을 찾아 진화하고 있다고 합니다. 따라서 기관, 기업 등 조직은 단순히 보안시스템을 도입하는 것을 넘어 만일의 상황에 대비하여 사이버 침해를 당하더라도 업무 중단이 되지 않도록 백업체계를 마련하고 신속한 복구 프로세스를 반복하여 점검하고 강화해야 할 것입니다.출처 및 참고자료2023년 사이버 보안 위협 분석과 2024년 사이버 보안 위협 전망
-
- 24.01.02
-
IT·보안
가트너 선정 2024년 주목해야 할 주요 10개 기술 트랜드
글로벌 연구조사 기업 가트너(Gartner)에서는 ‘가트너 상위 전략 기술 트렌드’보고서를 통해 매년 주요 기술 트렌드를 발표하고 있습니다. 올해 10월 17일에 가트너가 발표한 2024년 기업들이 주목해야 할 10대 전략 기술 트렌드 보고서에서는 생성형 올해 가장 센세이션을 일으켰던 생성형 AI를 비롯한 다양한 기술 트랜드를 분석하였습니다. AI신뢰, 위험 및 보안 관리 (AI Trust, Risk and Security Management)생성형 AI의 대중화로 인해 기업뿐만 아니라 일반 대중들까지 AI에 대한 접근이 증가하고 있습니다. 그러나 AI는 아직 해결해야 할 윤리적, 사회적 문제들이 남아있습니다. AI를 이용한 가짜뉴스와 딥페이크 뿐만 아니라 챗GPT를 활용하여 팬데믹을 일으킬 수 있는 신종 감염병을 만들 수 있다는 논문이 발표되기도 했습니다. AI를 활용하여 위협적인 감염병까지 만들 수 있다는 것입니다.이와 같은 AI의 문제에 대응하기 위해 등장한 AI TRiSM은 AI Trust, Risk and Security Management의 준말로 AI의 신뢰성, 위험성 및 보안 관리를 중심으로 AI를 더욱 안전하게 활용할 수 있는 전략을 의미합니다. AI를 통제, 제어할 수 있는 적절한 안전장치가 없다면, AI가 주는 편리하고 긍정적인 면보다도 초래할 부정적 영향이 더 커질 수 있음을 고려해야 할 것입니다. 지속적인 위협 노출 관리(Continuous Threat Exposure Management/CTEM)디지털 변환과 클라우드 기반 서비스의 증가로 기업과 개인 데이터를 이전보다 훨씬 많이 보호해야 합니다. 그러나 해커들의 공격 기법은 계속 발전하여 기존의 보안 대책만으로는 부족한 실정입니다.CTEM은 기업에게 위협이 될만한 요소들을 검토하고 관리하는 것을 목표로 하는 것을 뜻합니다. 즉, 기업의 디지털 및 물리적 자산의 접근성, 노출 및 악용 가능성을 지속적으로 평가하고 관리하는 방식을 말합니다. 특히 이제는 모든 데이터가 클라우드 형태로 보관, 활용되기 때문에 CTEM 프로그램을 기반으로 기업의 예상치 못한 위험들까지 관리해야 합니다. 지속가능한 기술 (Sustainable Technology)기술의 활용이 증가함에 따라, 기술이 환경에 미치는 영향에 대한 우려가 커지고 있으며, 지속가능한 기술이 중요해졌습니다. 기업들이 지속가능한 기술을 통해 사회적, 환경적 책임을 다하는 것이 기업의 가치평가에도 점점 중요한 요소로 부각되고 있습니다. 가트너는 2027년에는 기업들이 지속가능한 기술의 영향력에 따라 보상을 얻게 될 것으로 예측하기도 했습니다.플랫폼 엔지니어링(Platform Engineering)빠르게 변화하는 기술 트렌드에 따라 기업은 유연성이 높은 기술 플랫폼이 필요합니다. 이를 효과적으로 관리하기 위해 등장한 플랫폼 엔지니어링은 기업이 제품이나 서비스를 효과적으로 제공할 수 있도록 기술적 기반을 제공합니다. 플랫폼 엔지니어링을 활용하게 되면 하나의 공통된 플랫폼을 활용함으로써 불필요한 과정을 없애고 기업의 효율성을 높일 수 있습니다. AI증강 개발 (AI-Augmented Development)생성 AI가 등장했을 때, ‘프로그래머의 종말’이 우려되기도 했습니다. 그만큼 코드 작성 속도가 빠르고 정확도도 높기 때문인데요. 그러나 가트너는 생성 AI가 프로그래머의 자리를 대체하기 보다는 도우미로서의 역할을 할 것으로 보았습니다. 특히 코딩 및 테스트 과정, 애플리케이션의 설계 과정에서 작업 효율성을 향상하고 빠르고 정확한 개발을 도울 수 있습니다. 산업 클라우드 플랫폼(Industry Cloud Platform, ICP)산업 클라우드 플랫폼은 소프트웨어(SaaS), 플랫폼(PaaS), 서비스형 인프라(IaaS)기능을 결합하여 다양한 산업에 적합한 솔루션을 제공합니다. 이를 통해 기업들은 비즈니스의 변화, 데이터의 변화, 규제 변화 등에 빠르게 대응할 수 있게 됩니다. 가트너는 2027년까지 기업들은 산업 클라우드 플랫폼을 활용하여 기업 활동을 50%이상 가속할 것으로 예상하였습니다. 지능형 애플리케이션(Intelligent Application)지능형 애플리케이션은 AI기술을 활용하여 사용자의 요구 및 환경에 유연하게 적응하는 애플리케이션을 의미합니다. 지능형 애플리케이션을 통해 기업의 비즈니스 프로세스를 최적화하고 고객 경험을 향상시킬 수 있는데요, 가트너는 지능형 애플리케이션을 향후 3년 동안 가장 큰 영향을 미칠 기술로 지목하기도 했습니다.대중화된 생성 AI(Democratized Generative AI)생성 AI는 대화, 이미지, 동영상, 음악 등 새로운 콘텐츠와 아이디어를 만들어내는 인공지능입니다. 생성형 AI의 대표적인 사례 챗GPT는 올 한해 가장 큰 이슈가 되고 있기도 합니다. 가트너는 2026년까지 80%이상의 기업이 생성형 AI를 사용하거나 생성형 AI앱을 배포할 것으로 예측하고 있습니다. 이미 많은 기업에서는 생성형 AI를 활용하고 있으며, 이제는 대중들에게도 친숙하게 사용되고 있습니다.증강-연결된 인력 (Augmented Connected Workforce)증강 - 연결된 인력은 근로자의 가치를 최적화하기 위한 전략입니다. 증강 기술을 사용하여 사용자들의 능력을 강화하고 확장하는 것을 통칭하며, 여기에는 가상 현실, 컴퓨터 비전 등 다양한 기술이 포함됩니다. 이를 통해 업무에 필요한 기술이 더 빠르게 전파될수 있게 도움을 주어 기존 인력의 효율성과 기술 활용도가 크게 향상됩니다. 가트너는 2027년까지 기업의 25%가 증강 연결된 인력을 통해 효율성을 50% 높일 수 있을 것으로 예측하였습니다. 기계 고객 (Machine Customers)마지막으로 가트너는 미래엔 사람보다 커스토봇(Custobot)이라는 기계 고객이 거래를 주도하는 세상이 올 것으로 보았습니다. 커스토봇 즉, 기계 고객은 자율적으로 협상하고 대가를 지불해 상품과 서비스를 구매할 수 있는 비인간 경제 행위자를 말합니다. 이들은 정교한 AI를 기반으로 개인의 사용자 행동, 선호도, 피드백을 적극적으로 학습하고 소비자들이 실제 제품을 소비하는 데에도 결정적인 역할을 하게 될 것입니다. 또한 이로 인해 기업들은 커스토봇을 대상으로 제품을 판매하는 등 새로운 시장이 만들어질 것입니다. 지금까지 가트너에서 제시한 2024년 전략 기술 트렌드에 대해 알아보았습니다. 가트너에서는 10가지 기술 트렌드를 아래 그림처럼 빌더의 부상(Rise of the Builders), 투자 보호(Protect Your Investment), 가치 전달(Deliver the Value)로 묶어서 설명합니다. 과거와 달리 이제는 기술 트랜드의 변화 주기가 짧아졌기 때문에 예측하는 것이 어려워졌습니다. 2023년 한해동안 큰 센세이션을 일으킨 생성형 AI 챗GPT가 대표적인 예측의 어려움을 보여줍니다. 챗GPT가 발표되기 한달 전인 2022년 10월 17일에 가트너에서 2023년 기술 트랜드 보고서를 발표했으나, 해당 보고서에서는 생성형 AI의 유행을 예측하지 못하였습니다. 그러나 가트너의 2024년 기술 예측 보고서를 통해 현재의 트랜드를 더욱 정밀히 분석하여 이를 바탕으로 미래의 변화에 대응할 수 있지 않을까요?출처 및 참고자료Your Detailed Guide to the 2024 Gartner Top 10 Strategic Technology Trends
-
- 23.11.30
-
IT·보안
챗GPT 등장 1년, 생성형 AI가 가져온 변화
지금까지 글쓰기, 그림 그리기, 코딩 등의 창작 행위는 인간만이 가능한 행위로 여겨졌습니다. 그러나 인공지능(AI)의 발전과 함께 생성형 AI가 인간의 영역을 넘보는 시대가 되었습니다. 이제 생성형 AI는 챗GPT를 시작으로 새로운 기술 패러다임으로의 전환을 이끌고 있습니다. 생성형 AI란? 생성형 인공지능을 뜻하는 생성형AI(Generative AI)는 인간이 대량의 데이터를 입력하지 않아도 이미지 또는 텍스트와 같은 독창적이고 사실적인 콘텐츠를 생성합니다. 생성형 AI가 화두로 떠오르게 된 이유로는 오픈AI의 챗GPT가 큰 역할을 하였습니다. 챗GPT는 작년 출시 이후로 2개월만에 한달에 1억 명이 사용하였으며, 이젠 1주일에 1억명이 사용한다고 합니다. 생성형 AI가 가져온 변화는?업무 생산성 향상챗GPT를 업무에 활용하여 생산성을 높이는 경우가 늘어났습니다. 미국의 유명 비즈니스 매거진 ‘포춘’이 선정한 500대 기업의 92%가 챗GPT를 사용한다고도 합니다. 또한 최근 마이크로소프트(MS)는 챗GPT형태의 생성형 AI 코파일럿(Copilot)을 출시하였습니다. 코파일럿은 코드를 대신 작성해줄 뿐만 아니라 MS프로그램과 연계하여 워드, 엑셀, 파워포인트 작업을 대신 해주기도 합니다. 앞으로는 이러한 생성형 AI기술을 활용하는 근로자와 그렇지 못한 근로자간 업무 생산성의 격차가 점점 벌어질 것이라는 전망이 나오기도 합니다. 코딩 몰라도 만드는 챗봇개발자가 아니라도 누구나 AI챗봇을 만들 수 있게 되었습니다. 오픈AI는 맞춤형 AI챗봇을 만들 수 있는 유료서비스인 ‘GPT빌더’라는 서비스를 11월 9일 공개하였습니다. 원하는 목적을 설정하고, 주제에 대해 AI가 학습할 자료를 입력하면 코딩 없이도 나만의 맞춤형 챗봇을 만들 수 있습니다.구글의 생성형 AI구글 또한 생성형 AI 기반 검색 서비스(Search Generative Experience,SGE)를 한국 등 120개 국가 대상으로 확대한다고 밝히기도 했습니다. 구글의 대화형 챗봇 ‘바드’가 첫 출시부터 한국어를 지원한 데 이어, 생성형 AI의 검색 서비스도 한국어로 쓸 수 있게 된 것입니다. 생성형 AI검색은 검색결과와 함께 출처 링크를 표시하여 이용자들이 직접 정보를 확인하게 해주는 신기능입니다. GPT-4 터보 11월 6일, 오픈AI가 컨퍼런스를 통해 최신 AI모델 GPT-4터보를 발표하였습니다. GPT시리즈는 챗GPT의 기반이 되는 대규모 언어 모델로, GPT-4터보는 지난 모델에 비해 성능이 크게 개선되었습니다. GPT-4 터보의 대표적인 개선사항은 다음과 같습니다. 한 번에 입력할 수 있는 정보량 최대 16배 증가 업로드한 이미지의 내용 분석, 이미지 응답 생성 가능 텍스트를 자연스러운 오디오로 만들 수 있음 기업을 위한 미세조정과 저작권 보호 시스템 도입 이외에도 2023년 4월까지의 데이터로 훈련되어있어, 2021년 9월까지의 데이터로 학습한 기존 모델 GPT-4보다 최신 답변이 가능합니다. 또한 오픈AI에서는 일반 사용자가 직접 나만의 챗GPT를 만들 수 있는 서비스 GPTs를 공개하였습니다. GPTs는 코딩없이 일상적인 언어로 프로그래밍 가능하며, 오픈 AI는 해당 서비스를 GPT스토어에 업로드하여 거래 가능하도록 할 예정임을 밝혔습니다. 생성형 AI의 문제 생성형 AI의 대중화로 인해 기업뿐만 아니라 일반 대중들도 AI에대한 접근이 활발해지고 있습니다. 그러나 생성형 AI는 개인정보보호 문제, 범죄적 활용 등 다양한 사회적 문제를 만들어내고 있습니다. 특히 AI를 활용한 해킹 및 개인정보 유출의 위험성이 커지고 있습니다. 오픈 AI는 지난 3월 챗GPT에 접속한 전세계 이용자 일부의 이름, 이메일주소, 신용카드 번호 등의 개인정보를 유출하였으며, 유출된 정보에는 한국 이용자 687명의 정보가 포함되어 있었습니다. 이에 개인정보위는 오픈AI가 국내 보호법 상 의무 준수가 미흡하다는 점을 지적하며, 유출 인지 후 24시간 내에 신고하지 않은 신고의무 위반에 대해 과태료를 부과하였습니다. 이외에도 AI를 활용한 피싱사기 ‘AI피싱’도 성행하고 있습니다. AI피싱은 딥보이스, 딥페이크 등 AI기술에 기반하여 얼굴과 음성을 사기 피해자의 지인으로 변조한 뒤 상대방을 속여 돈을 가로채는 수법으로, 전 세계에서 발생하고 있습니다. 생성형 AI를 활용한다면 사람 목소리와 영상을 만들어내는 것이 어렵지 않기 때문에 이를 활용한 범죄의 문턱이 낮아지고 있습니다. 이처럼 AI가 생활에 침투한 상황에서 AI기술의 인권적 함의를 고려하고 무분별한 활용으로 인한 부작용을 막기 위해 유엔에서는 ‘AI 시대 인권규범’ 결의안이 채택되었습니다. AI인권에 미칠 영향에 대한 책임있는 평가가 필요하고, AI기술이 투명성과 설명 의무를 지녀야 한다는 내용입니다. EU에서는 AI법 ‘AI Act’를 통과시키며 챗GPT와 같은 생성형 AI시스템을 구축하려는 기업은 머신러닝에 투입한 데이터의 출처와 저작권을 공개해야 하고, AI서비스를 판매하고자 할 때는 출시전에 EU에 먼저 제출하여 위험이 없는지 조사를 받아야 합니다. 이 법안이 타결되면 2026년부터 EU국가들에 규제가 적용될 예정입니다. 생성형 AI시장의 전망 시장조사업체 IDC는 초거대 AI를 포함한 전세계 AI시장 규모가 2024년에는 5,543억 달러(약 700조원)에 달할 것으로 내다보았습니다. 국내 AI시장 역시 24년 3조 662억원 규모로 예상되며, 2023년부터 연평균 14.9% 성장하여 2027년까지 4조 4,636억원 규모에 이를 전망입니다. 또한 다양한 산업에서 AI채택을 가속화하는 가운데 생성형 AI에대한 수요는 지속적으로 증가할 것으로 보입니다. 생성형 AI는 이미 우리의 생활에 큰 영향을 미치고 있고, 업무 효율성과 정보 접근성을 크게 향상시키는 중요한 역할을 하고 있습니다. 그러나 윤리적 문제, 범죄 악용 문제, 정보보안 문제 등 해결해야 할 문제들도 아직은 남아있는 것 같습니다. 출처 및 참고자료 오픈 AI 유튜브
-
- 23.11.28
-
IT·보안
2023 데이터 산업 백서
데이터는 4차산업혁명을 선도하는 핵심 자원입니다. 모든 산업에서 수집, 가공, 거래, 활용으로 연결될 수 있으며 우리나라 뿐만 아니라 전 세계적으로 데이터의 활용, 보호, 비즈니스 육성 등 데이터산업의 활성화에 박차를 가하고 있습니다. 한국데이터산업진흥원은 국내외 데이터 산업 관련 동향을 종합적으로 정리, 해설한 데이터 산업 백서를 매년 발간하고 있습니다. 2023년도 주요 국내 데이터산업 이슈 1. 생성형 AI기술 활용한 서비스 개발데이터 저장, 처리 기술의 발전과 함께 텍스트나 이미지, 음성 등의 새로운 데이터를 생성하는 생성형 AI 기술이 활발하게 활용되고 있습니다.특히 오픈AI의 ChatGPT 등장 이후로 생성형 AI시장의 경쟁이 본격화되고 있습니다. 국내에서도 많은 기업들이 생성형 AI를 활용한 새로운 서비스 개발에 박차를 가하고 있으며, 이를위한 고품질의 데이터를 확보하기 위한 경쟁도 치열해지고 있습니다.생성형 AI가 확대되면서 많은 비즈니스 기회를 제공하고 있으나 데이터 및 정보 유출, 딥페이크, 저작권 문제, 편향 및 부정확하게 생성된 콘텐츠 등 해결해야 할 문제점들이 있습니다. 이에 정부는 데이터 접근 보장, 디지털 리터러시 향상, 디지털 격차 해소 등의 내용을 포함하는 ‘디지털 권리장전’을 발표하였습니다. 2. 데이터 기반의 초개인화 서비스데이터와 인공지능을 기반으로 한 맞춤형 서비스가 소비자들에게 제공되면서, 기업들은 고객들에게 보다 가까이 다가가기 위해 노력하고 있습니다. 특히 소비자 데이터를 기반으로 타겟팅 전략과 초개인화 기술을 활용하고 있습니다. 그 결과 다음과 같이 여러 분야에서 생활 밀착형 초개인화 상품과 서비스가 개발되고 있습니다. 3. 보건의료부문 데이터 활용 본격 활성화보건 의료부문은 특히 민감한 개인정보를 많이 보유하고 있습니다. 따라서 보건의료부문에서 안전한 데이터 활용이 이루어질 수 있도록 여러 정책적인 노력이 이루어지고 있습니다.특히 개인정보보호법이 개정됨에 따라 의료 등 전 분야 내 마이데이터 서비스 확산의 근거가 되는 개인정보 전송요구권이 신설됨에 따라 정부에서는 개인정보보호법 하위법령을 마련하고 2025년부터 시행할 예정입니다.4. 데이터 품질관리 필요성 확대AI관련 산업들이 확대되면서 데이터의 품질이 중요한 요소가 되고 있습니다. AI의 경우 학습 데이터에 따른 편향성이 존재하기 때문에 오류가 있는 데이터가 학습될 경우 윤리적, 법적 문제가 발생할 수 있기 때문입니다. 정부에서는 양질의 데이터 유통을 활성화하기 위해 다양한 노력을 하고 있습니다. 대표적으로 과학기술정보통신부는 ‘데이터 산업진흥 및 이용촉진에 관한 기본법’에 따라 데이터 품질인증기관을 지정하였으며, 이를 계기로 데이터 품질에대한 인식을 제고하고 양질의 데이터 생산을 촉진하고 있습니다. 국내 데이터산업 시장 현황2021년 데이터산업 시장 규모는 전년 대비 14.5% 성장한 22조 8,986억원이며, 2022년에는 25조 527억원 규모로 성장할 것으로 나타났습니다. 2018년부터 2022년까지의 5개년 연평균 성장률은 12.6%로 나타나면서, 지속적인 성장세를 이어갈 것으로 조사되었습니다.2022년 데이터 산업은 데이터 판매 및 제공 서비스업 / 데이터 구축 및 컨설팅 서비스업 / 데이터 처리 및 관리 솔루션 개발,공급업으로 크게 분류할 수 있습니다.데이터 판매 및 제공 서비스업 시장이 12조 5,235억원으로 가장 높은 비중을 차지하며, 다음으로 데이터 구축 및 컨설팅 서비스업이 9조 2,570억원, 데이터 처리 및 관리 솔루션 개발, 공급업이 3조 2,723억원으로 예상됩니다. 국내 데이터산업 시장 규모또한 국내 데이터 산업 시장이 지난 5개년 연평균 성장률인 12.6%와 같이 지속적으로 성장한다면, 2028년까지 51조원을 넘어설 것으로 전망됩니다. 해외 데이터산업 시장 현황미국의 디지털 데이터 시장은 세계에서 가장 큰 규모를 갖고 있으며, 시장의 성장세 또한 높아서 2020~2023년까지 연평균 성장률 17.4%를 보였습니다. 2020년 시장규모는 2,276억 달러였는데 2023년에는 3,685억 달러의 시장 형성이 예상될 만큼 지속적으로 두자릿수 성장세를 보이고 있습니다.유럽연합(EU)의 데이터 시장은 연평균 성장률 10.7%로 미국에 비하면 성장세가 약한 편입니다. 데이터 시장 규모는 2020년 646억 달러에서 2023년 876억 달러에 이를 것으로 예상됩니다. 유럽 내에서는 특히 독일, 프랑스, 이탈리아, 네덜란드, 스페인이 약 2/3의 비중을 차지하고 있습니다. 국가별 성장률 차이는 ICT 기술에 대한 지출액 및 경제력과 상관관계가 높은 것으로 나타났습니다. 또한 2022년도에는 우크라이나 전쟁으로 인한 부정적 효과가 있었으나, 무엇보다 지난 2년간의 코로나로 인한 경제적 충격에서 회복한 효과가 컸기 때문에 전년 댑 높은 성장률을 기록하였습니다.글로벌 데이터 시장 규모 데이터 보안 기술 동향4차 산업혁명 시대에 들어서며 단순한 자료의 개념이었던 데이터와 달리 이제는 데이터를 활용한 기술과 서비스가 다양해지면서 데이터를 가공, 처리, 분석된 정보의 개념으로 접근해야 합니다. 데이터의 활용이 확대되는 만큼 데이터에 대한 보안 위협도 발생하고 있습니다.글로벌 컨설팅그룹 맥킨지 조사에 따르면 디지털 경제가 성장함에 따라 사이버 공격도 함께 증가하고 있습니다. 맥킨지는 2025년 사이버 공격 피해액을 10조 5,000억 달러에 이를 것으로 보며, 이는 2015년 대비 300% 증가한 수치입니다. 이를 반영하여 사이버 보안과 관련된 산업은 2021년부터 매년 12.4%씩 증가한다고 볼 때 향후 데이터 보안시장의 규모는 1조 1,500억 달러에서 2조달러에 이를 것이라 전망하였습니다.사이버 보안 시장 규모 데이터 수집 분석 업체 Statista는 전 세계 사이버 보안시장 규모를 2022년 약 2,222억 달러로 평가하였습니다. 2030년에는 6,500억 달러를 넘어서며 2022년부터 2030년까지 연평균 12.83% 성장할 것으로 보았습니다. 특히 전세계 데이터 보안 시장은 2023년 59억 8,000만 달러였다가 2028년에는 107억 8,000만 달러에 달해 연간 12.5%성장할 것으로 전망하였습니다. 국내 데이터 보안 시장 동향코로나 팬데믹에 따른 업무 환경 변화로 국내에서도 클라우드 시스템 도입 및 전환을 가속화하고 있습니다. 이로 인해 클라우드 환경에서의 데이터 보안이 중요한 요소로 꼽히며, 데이터가 운영되는 운영체제와 데이터 베이스의 데이터를 보호하기 위한 보안 솔루션의 매출이 증가하고 있습니다. 2021년 국내 정보 보안 제품 매출은 4조 5,497억원으로 이는 전년대비 16%이상 성장한 수치로 2015년부터 2021년까지 연평균 13.7% 성장하였습니다. 그 중 데이터 보안 시장은 6,121억 원으로, 전체 매출의 19.6%를 차지하고 있습니다. 이외에도 2023 데이터 산업 백서에는 데이터 산업 주요 정책 및 법제도 현황, 산업별 데이터 활용 현황 등 데이터에 관련한 비즈니스 현황, 관련 기술 등 데이터 산업 종사자에게 유용한 내용들이 담겨있습니다. 데이터 산업 백서에 관한 자세한 내용은 한국데이터산업진흥원 홈페이지에서 확인 및 다운로드하실 수 있습니다. 출처 및 참고자료 한국데이터산업진흥원, 2023 데이터 산업 백서
-
- 23.11.21
-
IT·보안
정보가 필요했는데, 유출까지? 챗GPT의 이면
인공지능(AI)에 관한 관심이 어느때보다 뜨거운 요즘, '인공지능의 시대가 시작됐다'는 말이 나오고 있습니다.그중에서도 출시 2달만에 1억명이 가입한 인공지능 챗봇 챗GPT는 전세계적으로 인기를 얻으며 지난 2월 유료서비스 챗GPT를 시작하였습니다. 그러나 유료서비스 챗GPT 서비스 시작 한달여만에 유료가입자의 정보 유출사고가 발생하였습니다. 정보가 필요했는데, 유출까지?지난 3월 20일 챗GPT사용자의 이용 기록이 다른 사용자들에게 유출되는 사고가 발생하였습니다. 챗GPT를 쓰던 사용자 일부에게 다른 사용자의 대화 이력이 보이는 이상 현상이 발생하였고, 유료 버전 구독자들의 이름, 이메일 주소, 지불 주소, 신용카드 번호 마지막 4자리, 신용카드 유효 기간 등 개인정보 및 결제 관련 정보가 포함된 정보가 유출되었습니다. 이는 전체 유료 가입자의 1.2%에 해당하는 가입자들의 정보가 유출된 것으로 추정되었습니다. 이에 오픈AI는 자사 홈페이지 공지를 통해 유출 사고로 인해 영향을 받는 주체는 극소수이며, 추가적인 피해가 없을 것이라고 이용자들을 안심 시켰습니다.국내 기업들도 챗GPT에 대한 단속에 나섰는데요. 삼성전자의 한 직원이 반도체 생산 관련 프로그램의 오류를 해결하기 위해 코드를 챗GPT에 입력하였고, 이 과정에서 삼성전자의 정보가 챗GPT 개발사로 유출되었을 수 있습니다.오픈AI는 챗GPT에 입력된 내용을 학습 데이터로 활용하기 때문에 기밀 내용을 입력할 경우 추후 불특정 다수에게 해당 내용이 유출될 수 있습니다. 기업의 중요 정보일 경우 치명적인 사고이기에 삼성전자에서는 임직원에게 공지 및 주의를 당부하였습니다.이외에도 SK하이닉스, 포스코,LG디스플레이 등 국내 주요 기업에서는 챗GPT를 통한 핵심 정보 유출 가능성에 대해 우려하며 이에 대한 사내 임직원 대상 교육 및 사용 제한을 실시하고 있습니다.챗GPT를 통한 정보 유출이 발생하면서 기밀 정보 및 개인정보 유출에 대한 우려가 이어지며 안전성에 대한 논란이 이어지고 있는데요. 전세계 각 국가의 개인정보보호 기관에서는 오픈AI에 대한 조사를 시행하고 챗GPT를 규제하기 시작하였습니다. 챗GPT에 대한 전세계의 규제 동향은?이탈리아 내에서는 챗GPT의 사용이 잠정 중단되었는데요. 오픈 AI가 이탈리아 시민의 데이터를 AI모델 학습에 사용하는 것을 금지하였습니다. 이탈리아 데이터 보호 당국은 데이터 유출사건을 계기로 오픈 AI를 조사하기 시작하였으며, 챗GPT가 다음과 같은 이유로 유럽의 개인정보보호법 GDPR을 위반하고 있으며, Open AI를 상대로 GDPR 위반사항에 대한 개선 조치를 취할 것을 요구하였습니다.· 챗GPT에 수집되는 데이터가 어떤 사용자 및 이해 당사자와 연관되었는지 확인할 수 있는 정보 부족· 알고리즘 훈련 목적으로 수집하는 개인 데이터에 대한 법적 근거 불충분· 챗GPT가 제공하는 정보가 항상 실제 데이터와 매치되지 않으며, 이에 따라 개인정보가 부정확하게 처리되는 것으로 판단· 챗GPT에 이용자의 나이를 확인하는 필터가 없어 미성년자에게 부적절한 답변을 제공할 수 있음이탈리아를 시작으로 EU국가들도 챗GPT에 관한 조사에 착수하기 시작했는데요, 유럽 의회에서는 인공지능법안에 챗 GPT의 위험 방지를 위한 법적 안전장치 도입을 협의중이며, 생성형 AI기술을 규제하는 법률의 초안을 공개할 예정입니다.캐나다 정부에서도 동의없이 개인정보의 수집, 사용 및 공개 혐의로 챗GPT에 대한 조사를 진행하였고, 조 바이든 미국 대통령은 백악관 회의에서 AI의 위험성을 직접 언급하며 IT기업의 개인정보 수집을 제한하는 법안 통과를 재촉하였습니다. 또한 미 상무부 산하 통신정보관리청(NTIA)은 언론과의 인터뷰에서 챗GPT와 같은 AI 출시 전 유해정보 확산, 개인정보 유출 등의 문제를 막기 위해 정부의 사전 인증 또는 허가 여부 등 관련 규정 도입의 필요성을 검토하고 있다고 밝혔습니다. AI개발, 잠시 쉬어야할까?생성형AI는 그림, 음악, 광고까지 만들며 눈부시게 발전하고 있지만 허점으로 인해 제동이 걸리고 있습니다. 출처: MBN NEWS Youtube 다음 영상에서는 AI가 짠 코딩으로 프로그램을 만들어 다른 컴퓨터에 설치하자, 곧바로 해커의 컴퓨터에 화면이 뜨는데요, 다른사람의 사생활을 몰래 볼 수 있도록 AI가 도움을 주고있습니다. 이처럼 생성형 AI의 도움을 받아 범죄에 악용될 수 있으며, 개발 지식이 없는 사람들도 코드를 만들 수 있기때문에 광범위하게 범죄에 악용될 수 있습니다.AI는 피싱(Phishing)범죄에 악용될 수도 있습니다. 피싱은 이메일이나 메신저를 통해 중요한 정보를 빼내는 수법을 의미합니다.피싱 범죄를 시도하는 이메일은 보통 어색한 문장이나 문법을 통해 구별할 수 있었으나, AI의 도움으로 이를 보완하여 정교하고 완벽한 메일을 통해 사용자를 속일 수 있습니다.미국의 비영리단체 '퓨처오브라이프'는 '강력한 AI시스템은 효과가 긍정적이고 그 위험이 관리 가능하다는 확신이 있을 때만 개발되어야 한다'라며 챗GPT4보다 강력한 생성형 AI의 개발을 6개월동안 중단할 것을 촉구하는 서명운동을 벌였고 테슬라 최고경영자 일론머스크, 애플 공동창업자 스티브 워즈니악 등 기업가와 정치인 등 1200여명이 서명하였습니다. AI기술이 따라잡기 힘든 속도로 발전하고 있지만 이를 뒷받침할 법적 기준과 제도는 미흡한 실정입니다. 특히 챗GPT와 같은 생성 AI의 경우 엄청난 양의 데이터를 수집하기 때문에 개인정보 침해에 대한 우려는 커질수밖에 없습니다. 하루빨리 AI분야에 특화된 개인정보 보호 대책 및 규제가 마련되어 모두가 안심하고 AI기술을 사용할 수 있는 날이 왔으면 좋겠습니다.
-
- 23.04.27