생성형 AI는 기계학습을 기반으로 전자상거래, 엔터테인먼트, 교육 등 다양한 분야에서 활용이 되고 있습니다. 이 기술의 원리는 기본적으로 대규모 데이터를 학습하여 새로운 정보를 생성하는 것입니다. 이를 위해 학습 알고리즘과 머신러닝 모델이 사용되며, 특히 생성적 적대 신경망(GAN)이 주로 활용됩니다.
GAN은 두 개의 신경망, 즉 생성자와 판별자가 서로 경쟁하듯 학습하면서 새로운 데이터를 만들어냅니다. 생성자는 판별자를 속여 진짜와 같은 데이터를 만들려고 노력하며, 판별자는 이를 판별하려고 합니다. 이 과정을 반복하면서 둘 다 점차 성능이 향상되는데, 이렇게 해서 얻어진 데이터는 입력 데이터와 통계적으로 거의 구별할 수 없습니다.
생성형 AI는 우리 일상에 다양한 방식으로 응용되고 있습니다. 대표적인 예로, 그림 생성, 음악 작곡, 기사 작성 등 여러 분야에서 활용되고 있습니다.
생성형 ai로 인한 저작권 침해 사례 증가


https://www.usenix.org/system/files/usenixsecurity23-shan.pdf
스타일 클로킹은 최적화 과정을 통해 생성됩니다. 작품의 픽셀 값에 미세한 교란(perturbation)을 추가하여 인간의 눈에는 거의 인식되지 않지만, AI 모델이 해당 작품을 학습할 때 혼란을 겪게 만듭니다. 이러한 교란은 AI 모델의 **특징 공간(feature space)**에서 작품이 다른 스타일을 띄도록 합니다.
AI 모델은 학습 과정에서 다양한 예술 스타일을 다차원 특징 공간으로 표현하게 됩니다. 스타일 클로킹은 이 특징 공간에서 작품이 원래의 스타일이 아닌, 다른 목표 스타일을 향하도록 조작합니다. 결과적으로, AI 모델은 이 교란된 이미지를 학습하고 나면 작품을 원래 스타일이 아닌 다른 스타일로 인식하게 되어 원작의 고유한 스타일을 재현하지 못하게 됩니다.
스타일 클로킹은 적대적 공격(adversarial attack) 기법을 사용하여 AI 모델을 속입니다. 특히 인공지능 모델이 잘못된 스타일적 특징을 학습하도록 만드는 교란은 사람에게는 거의 보이지 않는 미세한 변화로, AI 모델에는 큰 영향을 미칩니다. 이 교란은 모델이 작품을 처리할 때 스타일을 잘못 해석하게 만듭니다.
Glaze는 원작의 스타일과 크게 다른 목표 스타일(target style) 을 선택하여 적용합니다. 이렇게 하면 AI가 학습 과정에서 원작의 스타일이 아닌 목표 스타일의 특징을 배우게 되어 작품을 모방하는 데 실패하게 됩니다. 이러한 방식으로 여러 작품에 스타일 클로킹을 반복 적용하면, AI는 결국 예술가의 원래 스타일을 제대로 학습하지 못하게 됩니다.