인공지능이 뉴스 기사를 '학습'하는 것은 정당할까요? 글로벌 미디어 거인과 AI 기업 간의 법정 공방에서 새롭게 등장한 판결이 AI 산업 전체에 미칠 영향은?
안녕하세요. 모두가 주인공 입니다. 차가운 봄비가 내리는 오늘, 저는 기술과 법이 충돌하는 흥미로운 사례를 들고 왔어요. 아마 여러분도 ChatGPT를 한 번쯤은 써보셨을 텐데요, 이 똑똑한 AI 비서가 법정에 서게 됐습니다. 뉴욕타임스가 "우리 기사를 무단으로 학습해 복제한다"며 OpenAI를 고소한 사건인데요, 최근 법원에서 중요한 판결이 나와서 오늘은 이 이야기를 자세히 풀어볼까 합니다. 인공지능과 저작권의 경계에서 벌어진 이 사건은 앞으로 AI 기업들의 비즈니스 모델과 콘텐츠 산업 전반에 엄청난 영향을 미칠 수 있어 더욱 주목받고 있답니다.
목차
뉴욕타임스와 OpenAI 소송의 배경
2023년 12월, 뉴욕타임스는 OpenAI를 상대로 소송을 제기했어요. 소송 내용을 요약하자면, "ChatGPT가 우리 뉴스 기사를 무단으로 '토해내고' 있다"는 거죠. 그니까, ChatGPT가 사용자 질문에 답변하면서 뉴욕타임스 기사를 거의 그대로 복제하거나 요약해서 제공한다는 겁니다.
이에 대해 OpenAI 측은 흥미로운 방어 논리를 펼쳤습니다. "뉴욕타임스가 소송을 너무 늦게 제기했다"는 거예요. 법률 용어로는 '시효 도과'라고 하는데, OpenAI는 "뉴욕타임스가 2020년에 이미 ChatGPT가 자사 기사로 학습된다는 사실을 알고 있었어야 한다"고 주장했습니다. 심지어 "뉴욕타임스 자체 보도에서도 OpenAI가 인터넷에 있는 수조 개의 단어를 분석하고 있다고 보도했다"며 2020년 11월 기사를 증거로 제시했어요.
하지만 시드니 스타인 미국 지방법원 판사는 이러한 OpenAI의 주장을 받아들이지 않았습니다. 판사는 "OpenAI가 뉴욕타임스가 ChatGPT의 잠재적 저작권 침해 가능성을 2년 전에 알고 있었다는 것을 증명해야 하는데, 그러지 못했다"고 판단했습니다. 뉴욕타임스 기자 한 명의 보도만으로는 뉴욕타임스 전체가 이를 인지하고 있었다고 볼 수 없다는 거죠. 솔직히 말해서, 꽤 합리적인 판단 아닌가요?

법원 판결의 핵심 내용과 의미
스타인 판사는, 가장 중요한 사실은 ChatGPT가 실제로 출시되어 어떻게 작동하는지 확인할 수 있게 된 것은 2022년 11월이었다는 점이라고 강조했어요. 뉴욕타임스가 OpenAI의 학습 방식에 대해 이론적으로 알고 있었을 수는 있지만, 실제로 ChatGPT가 자사 기사를 어떻게 활용하는지는 제품이 공개된 후에야 알 수 있었다는 거죠.
판사는 OpenAI의 주장을 "허수아비 논쟁(straw man)"이라고 일축했습니다. OpenAI는 뉴욕타임스가 "세련된 출판사"로서 "침해 가능성을 알게 된 후 즉시 조치를 취할 의무"가 있다고 주장했지만, 이는 법적으로 맞지 않다는 거죠. 물론 앞으로 증거 개시 과정에서 OpenAI가 뉴욕타임스의 사전 인지 여부를 입증할 가능성은 남아있습니다만, 현 단계에서는 소송 각하가 적절하지 않다고 판단한 겁니다.
OpenAI의 주장 | 판사의 판단 | 법적 의미 |
---|---|---|
소송 제기 시효 도과 (2020년에 이미 알았어야 함) | 기각 - 단일 기사만으로 뉴욕타임스 전체의 인지를 증명할 수 없음 | 저작권 침해 주장 계속 진행 가능 |
"대중적 지식"이었다는 주장 | 기각 - 뉴욕타임스가 특정 침해 행위를 알았다는 증거 부족 | AI 학습 과정과 결과물은 별개로 취급 |
"세련된 출판사"의 즉각 조치 의무 | "허수아비 논쟁"으로 기각 | 콘텐츠 소유자에게 과도한 모니터링 부담 없음 |
이용자 저작권 침해에 대한 OpenAI의 책임
이번 소송에서 특히 주목할 만한 부분은 '기여적 저작권 침해(contributory infringement)'에 관한 판단이에요. 뉴욕타임스는 OpenAI가 ChatGPT 사용자들의 저작권 침해에 기여했다고 주장했습니다. 어떻게요? 사용자들이 ChatGPT를 통해 뉴욕타임스의 유료 콘텐츠(페이월 뒤에 있는)를 우회해서 보게 함으로써요.
스타인 판사는 이 주장을 "그럴듯하다(plausible)"고 판단했어요. 뉴욕타임스는 ChatGPT 출력물의 100페이지 이상의 예시와 미디어 보도를 통해, OpenAI가 최소한 "사용자들의 침해 가능성을 조사하고 발견할 이유가 있었다"는 점을 보여줬다는 거죠. 더 결정적인 건, 뉴욕타임스가 직접 OpenAI에게 "그들의 도구가 저작권을 침해한다"고 알렸다는 점입니다.
이 판단은 AI 업계에 꽤 중요한 의미를 가져요. OpenAI가 "ChatGPT의 상당한 비침해적 사용(substantial noninfringing uses)"을 주장했음에도, 판사는 사용자와의 "지속적인 관계"를 유지하며 프롬프트에 응답하는 출력물을 제공한다는 점이 기여적 침해 주장을 뒷받침한다고 봤거든요.
- OpenAI가 뉴욕타임스 작품으로 AI 모델을 학습시킨 행위
- ChatGPT가 특정 출력물을 제공하도록 설계한 방식
- 사용자들이 이를 통해 유료 콘텐츠를 우회할 수 있게 한 결과
- OpenAI가 이러한 침해 가능성을 인지했거나 인지했어야 했다는 주장
- 뉴욕타임스의 직접적인 침해 통지 후에도 적절한 조치를 취하지 않은 점
기각된 주장들: 'Hot News'와 저작권 관리 정보
하지만 스타인 판사가 뉴욕타임스의 모든 주장을 받아들인 건 아니에요. 뉴스 출판사들에게 특히 실망스러울 수 있는 부분은 '무임승차(free-riding)' 주장이 기각된 점입니다. 뉴욕타임스는 ChatGPT가 시간에 민감한 '뜨거운 뉴스(hot news)'에서 부당하게 이익을 취한다고 주장했는데요, 특히 뉴욕타임스의 Wirecutter 포스트와 같은 리뷰 콘텐츠가 이에 해당한다고 봤어요.
판사의 설명을 들어보면... ChatGPT가 Wirecutter 정보를 공유할 때 뉴욕타임스를 출처로 언급하기 때문에 '출처 표시 없는 무단 이용'이라고 보기 어렵다는 거예요. 게다가 이런 무임승차 주장은 어차피 저작권법에 의해 선점(pre-empted)되어 별도의 주장으로 성립하기 어렵다고 판단했습니다. 솔직히 말해서 이 부분은 뉴스 업계에 꽤 큰 타격이네요.
또한 판사는 저작권 관리 정보(CMI) 제거에 관한 뉴욕타임스의 주장도 기각했어요. 디지털 밀레니엄 저작권법(DMCA)에 따르면, 출판사는 ChatGPT의 출력물이 원작과 "거의 동일(close to identical)"해야 이 주장을 할 수 있는데, 뉴욕타임스 기사의 일부만 발췌하는 경우에는 적용이 어렵다는 거죠. 판사는 발췌문에 기반한 주장을 허용하면 "무제한적 DMCA 책임"이 발생할 위험이 있다고 우려했습니다. 예를 들어, CMI 없이 인용구(block quotes)를 사용하는 모든 경우에 책임을 물을 수 있게 되니까요.
판결이 AI 산업과 미디어에 미칠 영향
이번 판결이 AI 산업에 어떤 영향을 미칠지는 정말 궁금한 부분이죠. OpenAI는 언제나처럼 "AI 학습을 위한 저작권 작품 사용은 공정 이용(fair use)"이라는 기존 입장을 반복했어요. 심지어 지난달에는 도널드 트럼프에게 "법원이 이 주장에 반대하면 미국이 중국에 AI 경쟁에서 질 것"이라고 경고하기까지 했다니까요. 좀 과장된 느낌이 드는 건 저뿐인가요?
OpenAI 대변인은 "ChatGPT는 인간의 창의성을 향상시키고, 과학적 발견과 의학 연구를 발전시키며, 수억 명의 사람들이 일상 생활을 개선할 수 있도록 돕는다"며 "우리 모델은 혁신을 강화하고, 공개적으로 이용 가능한 데이터로 학습되며, 공정 이용에 기반한다"고 주장했습니다. 하지만 이제 법원은 단순히 "AI 학습은 공정 이용"이라는 주장만으로는 충분하지 않다고 생각하는 것 같네요.
이해당사자 | 판결의 영향 | 예상되는 대응 |
---|---|---|
AI 기업들 | 학습 데이터와 출력물 모두에 대한 책임 증가 | 출력물 통제 강화, 라이선스 계약 확대 |
언론사/콘텐츠 제작자 | 저작권 보호 강화, 협상력 증가 | AI 기업과의 라이선스 협상, 추가 소송 |
사용자/소비자 | AI 서비스 제한 가능성, 비용 증가 가능성 | 대체 서비스 모색, 제한된 기능 적응 |
정책 입안자 | AI와 저작권 관련 입법 필요성 증가 | 법률 개정 논의, 새로운 규제 프레임워크 개발 |
이번 판결은 단순히 한 소송에 관한 것이 아니라, 인공지능의 미래와 콘텐츠 산업의 지속 가능성에 관한 근본적인 질문을 던지고 있어요. AI 회사들이 막대한 양의 콘텐츠를 무료로 사용해 수익을 창출하는 것이 정당한지, 아니면 그 가치에 합당한 대가를 지불해야 하는지의 문제죠. 법원의 이번 결정은 AI 회사들이 단순히 "우리는 공정 이용에 기반합니다"라고 말하는 것 이상의 책임을 져야 할 수도 있음을 시사합니다.
한국의 AI 저작권 대응 현황과 전망
그렇다면 우리나라는 AI와 저작권 문제에 어떻게 대응하고 있을까요? 한국도 이 문제에 있어서 미국과 비슷한 고민을 하고 있지만, 접근 방식에서는 약간의 차이가 있어요. 한국의 문화체육관광부와 한국저작권위원회는 2023년부터 'AI 저작권 가이드라인' 마련을 위한 작업을 진행 중인데, 미국처럼 소송을 통한 판례 형성보다는 사전적 규제 프레임워크를 만드는 데 중점을 두고 있답니다.
특히 한국의 주요 언론사들과 콘텐츠 제작사들은 네이버, 카카오 같은 국내 AI 기업들과 선제적으로 라이선스 계약을 맺는 경향이 있어요. 미국에서 뉴욕타임스가 OpenAI와 계약 없이 바로 소송으로 간 것과는 대조적이죠. 예를 들어, 지난해 네이버는 여러 언론사 및 출판사와 하이퍼클로바를 위한 학습 데이터 라이선스 계약을 체결했습니다. 이런 접근법은 미국에서 발생하는 것과 같은 큰 법적 분쟁을 어느 정도 예방할 수 있는 장점이 있어요.
하지만 모든 문제가 해결된 건 아니에요. 한국에서도 AI 학습을 위한 데이터 활용이 '공정 이용'에 해당하는지에 대한 법적 판단은 아직 확립되지 않았습니다. 현재 한국저작권법은 AI 학습을 위한 저작물 이용을 명시적으로 다루고 있지 않기 때문에, 법 개정이나 판례를 통한 명확화가 필요한 상황이죠.
- 한국의 주요 AI 기업들(네이버, 카카오)은 선제적으로 콘텐츠 제작자들과 라이선스 계약을 체결하는 경향
- 문화체육관광부와 한국저작권위원회는 'AI 저작권 가이드라인' 마련 작업 진행 중
- 2023년 하반기부터 한국 국회에서도 AI 학습을 위한 저작물 이용에 관한 저작권법 개정안 논의 시작
- 국내 AI 생성 콘텐츠에 대한 저작권 인정 여부도 아직 명확하게 규정되지 않은 상태
- 미국 법원 판결이 한국의 정책 방향에도 상당한 영향을 미칠 것으로 예상
자주 묻는 질문 (FAQ)
마무리 생각
지금까지 뉴욕타임스와 OpenAI의 법적 분쟁과 최근 법원 판결에 대해 살펴봤는데요, 솔직히 말해서 이 소송은 단순한 기업 간 다툼이 아니라 AI 시대의 창작물과 정보의 가치에 관한 근본적인 질문을 던지고 있어요. 인공지능이 우리 삶의 모든 영역에 침투하는 지금, 인간의 창작물과 지식을 AI가 어디까지 활용할 수 있는지, 그리고 그 대가는 어떻게 지불되어야 하는지에 대한 사회적 합의가 필요한 시점입니다.
AI 기술의 발전과 혁신은 물론 중요하지만, 그것이 콘텐츠 창작자들의 지속 가능한 생태계를 희생시키면서 이루어져도 되는 걸까요? 이번 판결은 적어도 "AI 회사들도 책임감 있게 행동해야 한다"는 메시지를 전달하고 있는 것 같아요. 앞으로 더 많은 소송과 판결, 그리고 새로운 법률과 산업 표준이 등장할 것으로 예상됩니다.
여러분은 어떻게 생각하시나요? AI가 콘텐츠를 학습하고 재생산하는 것에 대해 어디까지 허용해야 할까요? 혹시 이 주제에 대한 여러분만의 생각이나 경험이 있다면, 아래 댓글로 자유롭게 공유해 주세요. 이런 대화를 통해 우리 모두가 함께 AI 시대의 윤리와 규범을 만들어가는 데 기여할 수 있을 거라고 생각합니다.
이 글이 AI와 저작권에 관한 복잡한 법적 문제를 이해하는 데 조금이나마 도움이 되셨길 바랍니다. 다음에 또 다른 흥미로운 AI 이슈로 찾아뵐게요! 모두 좋은 하루 보내세요~ 😊
출처: 이 글은 Ashley Belanger의 Ars Technica 기사 "Judge calls out OpenAI's 'straw man' argument in New York Times copyright suit"(2025년 4월 5일)를 바탕으로 작성되었습니다. 원문 내용에 분석과 한국 상황에 대한 정보를 추가하여 재구성하였습니다.