본문 바로가기

최신 보안 동향

인공지능 사용에 대한 보안 인식

 

< 정보 출처 >

 

https://www.boannews.com/media/view.asp?idx=114975 

 

챗GPT 사용해 업무 능력 향상하려다 민감한 정보와 기밀까지 입력해

챗GPT로 인해 새로운 위협이 불거지고 있다는 지적이 나왔다. 챗GPT 열풍이 대형 언어 모델(Large Language Model, LLM)이라는 기술 자체에 대한 관심의 급증으로 이어졌는데, 수많은 사용자들이 이 기술

www.boannews.com

 

요즘 ChatGPT와 같은 인공지능 기술을 다들 많이 사용하실 겁니다. 그중에 저도 ChatGPT를 많이 활용하곤 합니다. 

해당 기사는 인공지능 모델에 대한 민감한 정보 입력, 정보에 대한 학습, 정보에 대한 추출등을 다룹니다. 저 또한 ChatGPT를 활용하며 내가 입력한 정보를 학습할 수 있지 않을까 라는 생각을 하기도 하였습니다. 

 

실제 ChatGPT에 물어본 바로는 이미 많은 데이터에 의해 학습되었기에 사용자의 실시간 적인 입력은 학습하지 않는다고 합니다. GPT의 이전 모델인 GPT2는 fine-tuned을 미세하게 진행하였다는 답변을 받았습니다. 인공지능 기반 기술이 ChatGPT 뿐이 아니라, 다양한 모델들이 있고, LLM 모델들은 사용자 입력에 대해 학습이 가능하므로 민감한 정보에 대한 입력에는 주의를 기울여야겠습니다.

 

결론적으로, 이런 AI모델들을 사용할 때, 민감한 정보에 대해서는 주의를 기울이는 인식을 키워야겠단 생각이 듭니다.

 

LLM 모델이란?

 

ChatGPT :  LLM 모델은 인간과 유사한 텍스트를 생성하기 위해 대량의 텍스트 데이터에 대해 훈련되는 일종의 딥러닝 모델이다. LLM 모델의 기본 아이디어는 방대한 양의 텍스트 데이터를 분석하여 자연어의 통계적 패턴과 구조를 학습하는 것이다. 이는 학습 데이터에서 학습한 패턴을 기반으로 주어진 텍스트에서 다음 단어 또는 단어 시퀀스를 예측하도록 모델을 학습하는 비지도 학습이라는 프로세스를 통해 달성된다. LLM 모델 중 가장 잘 알려진 것? OpenAI의 ChatGPT!

 

훈련 데이터 추출 공격

 

실제로 ChatGPT2는 해당 공격에 취약하였다. 이 공격은 모델을 만드는 데 사용되는 교육 데이터에서 민감한 정보 또는 기밀 정보를 추출하는 것을 목표로 하는 언어 모델에 대한 공격 유형이다. 

 

 

 

보안을 공부하는 비전공자 입니다. 기사를 읽고 저의 이해를 바탕으로 한 생각, 찾아본 정보가 조금 잘못됬을 수도 있는데, 그때는 말씀해주시면 감사하겠습니다 :)