Not OK, Cupid: 동의 없이 3백만 건 사용자 사진을 AI에게 넘긴 데이팅 앱
데이팅 앱에 가입할 때는 이미 어느 정도의 위험을 감수하고 있다는 사실을 알고 있습니다. 너무 많은 사용자가 뒤섞여 있는 환경이라, 사기꾼과 각종 불쾌한 만남에 노출될 수 있고, 이런 앱을 사용하는 것만으로도 보안과 프라이버시 측면에서 더 취약해질 수 있습니다. 계정이 해킹될 위험이 있고, 비밀번호가 노출될 수도 있으며, 사진이 도용당해 가짜 프로필로 재사용될 수도 있습니다. 이 목록은 계속 이어질 수 있습니다. 하지만 이런 부분들은 끝내 본인이 선택해서 받아들이는 위험입니다. 어느 정도 ‘거래’의 일부라고 볼 수 있습니다.
그러나 사용자가 한 번도 들어본 적도 없는 AI 회사에 본인의 민감한 정보와 사진, 위치 데이터를 공유하는 것은 그렇게 느껴지지 않습니다. 이는 신뢰를 명백히 넘어서는 행위입니다. 그런데 바로 그런 일이 OkCupid, 즉 Tinder와 Hinge, Plenty of Fish를 포함하는 Match Group 산하의 데이팅 플랫폼에서 실제로 일어났습니다.
게다가 이 문제가 드러났을 때, 처벌 수준이 너무 가벼웠습니다.
사용자 데이터가 회사의 재산처럼 취급되었을때 문제
올해 3월 OkCupid과 모회사 Match Group이 미국 연방거래위원회(FTC)와 체결한 합의안에서, 정부는 이 앱이 사진과 위치 데이터를 포함한 사용자 개인정보를 관련 없는 제3자에게 공유하면서 사용자를 “기만했다”고 지적했습니다. 이 공유는 사용자에게 알리지도, 동의를 받지도 않은 채 이루어졌고, OkCupid가 스스로 내세운 개인정보 보호 약속을 정면으로 어긴 것이었습니다.
2014년 위반 당시 OkCupid의 개인정보 보호 정책에는 사용자 데이터를 “서비스 제공업체”, 비즈니스 파트너, 계열사와 공유하거나, 그 외의 경우에는 사용자에게 명시적으로 알리고 거부할 기회를 제공하는 경우에 한해 공유할 수 있다고 적혀 있었습니다. 그러나 실제로는 이런 절차가 전혀 지켜지지 않았습니다. FTC 조사 결과, OkCupid은 최대 3백만 장의 사용자 사진을 포함해 잠재적으로 수백만 명에 이르는 사용자 정보를 Clarifai라는 AI 회사에 공유한 것으로 드러났습니다. Clarifai는 서비스 제공업체도, 파트너도, 계열사도 아니었고, OkCupid은 이 과정에서 사용자에게 동의를 구하거나 공유를 거부할 기회조차 제공하지 않았습니다. 그 결과 수백만 명의 사용자는 자신의 데이터가 뒤에서 전혀 다른 용도로 재활용되고 있다는 사실조차 알 수 없었습니다.
Clarifai와의 데이터 공유가 일어난 이유는 단순합니다. OkCupid 공동 창업자들은 Clarifai에 이해관계를 가지고 있었습니다. 실제로 해당 회사에 투자했으며, OkCupid를 편리한 데이터 공급원으로 활용했습니다. 이후 Clarifai는 약 300만 장의 사진과 기타 사용자 데이터를 활용해 얼굴 인식 및 이미지 처리 기술을 개발했습니다.
Ars Technica의 보도에 따르면, Clarifai의 CEO는 이 데이터가 얼굴을 분석해 나이, 성별, 인종을 식별할 수 있는 시스템을 구축하는 데 도움이 되었다고 인정했습니다. 이는 사용자 사진이 본인의 동의 없이 해당 기술의 학습 데이터로 사용되었음을 의미합니다. 또한 FTC는 OkCupid가 수년간 이 AI 기업과의 관계를 부인해 왔다고 지적했습니다.
문서상으로는 애매한 문구를 근거로 이 행동을 ‘정책 범위 안’이라고 주장할 여지는 있었을지 모릅니다. 하지만 실제로 OkCupid가 한 일은 사용자 데이터를 마치 회사 소유 자산처럼 취급한 것에 가깝습니다. 이는 스스로 내세운 개인정보 보호 약속의 취지와도 정면으로 배치됩니다. 정책이 암시하는 바도, 사용자가 상식적으로 기대하는 바도 데이터가 명시된 용도에 한해서만 사용된다는 것인데, AI 모델 학습은 그 어디에도 포함되어 있지 않았기 때문입니다.
이 행동이 얼마나 문제적인지 더 잘 이해하려면, 다음과 같은 간단한 가정을 떠올려 볼 수 있습니다. 만약 창업자들이 AI 회사가 아니라 자동차 보험 중개사나 건강보험 회사에 투자했고, OkCupid가 수집한 민감한 사용자 데이터를 이와 아무 관련 없는 업체에 넘겼다면 어떨까요? 그러한 데이터는 사람들의 생활 방식, 성적 지향, 건강 위험도를 추론하는 데 쓰일 수 있고, 그 결과 보험료나 가입 가능 여부에 영향을 줄 수 있습니다. 즉, 애초에 그런 목적으로 제공한 적 없는 데이터 때문에 사용자가 현실에서 불이익을 겪는 상황이 벌어질 수 있습니다.
과태료 없이 끝난 가벼운 처벌
이렇게 심각한 수준의 사용자 데이터 오남용이라면, 강력한 제재가 뒤따를 것이라고 기대하기 쉽습니다. 하지만 실제로는 그렇지 않았습니다. 합의 결과 OkCupid가 받은 조치는 앞으로 데이터 수집 방식과 개인정보 보호 조치를 잘못 전달하지 말라는 금지 명령이 거의 전부였습니다. 거액의 과태료는커녕 과태료 자체가 부과되지 않았고, 의무를 이행해야 한다는 점을 제외하면 눈에 띄는 장기적 제재도 없었습니다. 이론적으로는 피해 사용자가 민사 소송을 제기할 수 있지만, Match가 위법을 인정하지 않은 상황에서 이런 소송이 실질적인 결과를 내기는 어렵습니다.
이 정도 수위의 제재는 진지한 처벌로 받아들이기 어렵습니다. 사실상 이미 지켜야 했던 규칙을 다시 한 번 읽어주고 “다시는 그러지 말라”고 말하는 수준에 그치기 때문입니다. 규제라기보다는 일종의 약속 확인에 가깝게 느껴지는 대목입니다. 특히, 필요할 때는 스스로 한 약속조차 쉽게 넘어간 전력이 있는 회사에서 이런 ‘약속’을 다시 믿어 달라고 요구하는 셈이니 설득력은 더 떨어집니다.
동의 없이 데이터를 공유하는 것이 예외가 아니라 관행
OkCupid 사례는 사용자 데이터를 회사의 소유물처럼 여기는 태도가 드러난 가장 최근의 예일 뿐입니다. Match Group을 포함해 일부는 시대가 변했고 이런 관행은 이미 과거의 일이라고 주장하지만, 현실은 전혀 그렇지 않습니다. 최근 몇 년 사이 기업들이 명확한 동의 없이 사용자의 데이터를 은밀히 공유하거나 노골적으로 판매한 정황이 잇따라 드러나고 있습니다.
예를 들어 Grindr의 경우, 최근 몇 년간 성적 지향, 정확한 위치, 광고 식별자 등 고도로 민감한 데이터를 수백 곳에 이르는 광고 파트너와 유효한 동의 없이 공유해온 사실이 드러나 유럽 각국에서 큰 제재를 받았습니다. 이로 인해 노르웨이에서 약 610만 달러 규모의 과태료 처분을 받았고, 영국에서는 HIV 관련 데이터를 광고 회사와 공유했다는 의혹으로 대규모 집단 소송이 진행 중입니다.
또 다른 데이팅 앱인 Raw는 2025년 보안 결함으로 사용자의 정확한 거주지 주소, 성적 취향, 생년월일 같은 개인 정보가 공개적으로 노출되었습니다. 이러한 노출은 단순히 온라인 위험에 그치지 않고, 실제 현실에서의 위험으로 이어질 수 있습니다. 이 사건 당시 회사는 상대방의 생리적 신호를 측정하는 웨어러블 디바이스 개발을 모색하고 있었는데, 이는 이미 취약한 데이터 관행에 더해 감시를 더 쌓는 것처럼 보입니다.
이런 문제는 데이팅 앱에만 국한되지 않습니다. 2024~2025년에는 제너럴 모터스(GM)와 자회사 OnStar가 제동 정보, 주행 속도, 위치 기록 등 세부 운전 데이터를 조용히 수집해 데이터 브로커에게 판매해 온 사실이 드러났습니다. 이 데이터는 보험사가 보험료를 산정하거나 인상하는 데 활용되었고, 일부 운전자에게는 상당한 금전적 부담으로 돌아왔습니다. 결국 FTC는 조사를 거쳐 이 관행을 5년간 금지하는 명령을 내렸습니다.
유사한 패턴은 LinkedIn 같은 네트워크 플랫폼, 다양한 데이터 브로커, 심지어 보안 소프트웨어 업체에서도 반복적으로 나타나고 있습니다. 이 모든 사례에서 사용자의 데이터는 알아채기 어려운 방식으로 재활용되거나 공유·판매되었고, 앞으로 드러날 사례도 더 많을 것입니다. 이러한 흐름은 기업들이 내세우는 프라이버시 약속이 말뿐인 선언에 그치는 경우가 여전히 많다는 점을 분명하게 보여 줍니다.
사용자에게 실제로 찾아오는 불이익
이러한 사례들은 단지 규제 위반으로만 느껴질 수 있지만, 그 결과는 결코 추상적이지 않습니다. 이런 데이터가 공유되거나 유출되거나 재사용되면, 성적 지향, 건강 상태, 정확한 위치 이력과 같은 극도로 개인적인 정보가, 사용자가 전혀 알지 못하는 세력에게로 흘러들어갑니다.
그 결과는 공격적인 타깃 광고와 프로파일링을 넘어, 스토킹이나 괴롭힘, 차별, 보험료 인상 같은 금융상 불이익으로도 이어질 수 있습니다. 한 번 밖으로 흘러나간 데이터는 다시 회수하기도, 이후 어떻게 쓰일지 통제하기도 사실상 거의 불가능합니다. 게다가 더 많은 서비스와 시스템이 이런 유형의 데이터 수집에 의존할수록, 사용자가 감수해야 할 위험과 부담은 점점 더 커질 수밖에 없습니다.
이 점은 세계 곳곳에서 도입이 확대되고 있는 연령 인증 같은 새로운 관행에서 특히 두드러집니다. 얼굴 스캔이나 신분증 사본처럼 고도로 민감한 정보를 제출하도록 요구하는 방식이 늘어나면서, 잘못된 처리나 오용이 가져올 파급 효과도 함께 커지고 있습니다.
리스크가 커질수록 더 심각해지는 문제
이런 위험과 우려는 새롭게 나타난 것이 아니라, 이미 오래된 문제입니다. 하지만 상황은 점점 더 취약해지고 있습니다. 예를 들어, 영국의 연령 인증 서비스 선두 기업인 Yoti는 최근 사용자 동의 없이 생체 인식 데이터를 수집·보관하고 있다는 의혹을 받았습니다. 이 회사는 효과적인 연령 인증을 위해 사용자의 얼굴 스캔이나 공적 신분증 정보 같은 민감한 정보를 요구하지만, 그 데이터를 올바르게 처리하지 못했습니다. 또 다른 사례로, Discord는 신분증 기반 연령 인증을 도입한 뒤, 그 데이터가 해킹으로 유출되는 사태를 겪었습니다. 이 두 경우 모두 사용자는 신뢰를 가지고 매우 민감한 정보를 제공했지만, 그 정보가 제대로 관리되지 못하거나 외부로 노출되는 사태를 보여주었습니다.
전반적으로 세상은 ‘편의성’을 명분으로 더 많은 데이터를 수집하는 방향으로 움직이고 있습니다. Amazon의 Ring 같은 홈 CCTV 시스템부터, 차량 번호판과 이동 경로를 AI 카메라로 기록해 데이터베이스화하는 Flock 같은 도시 감시 네트워크까지, 우리 주변에는 같은 전제 위에서 돌아가는 기술들이 빠르게 늘어나고 있습니다.
이런 기술은 모두 안전성과 개인화를 강조하지만, 실제로는 같은 근본적인 문제를 반복합니다. 사용자는 시스템이 해킹되지 않기를, 그리고 기업이 데이터를 악용하지 않기를 동시에 신뢰해야 합니다. 그러나 둘 다 이미 여러 번 발생했고, 그 과정에서 사용자는 종종 전혀 알지 못하는 사이에 피해를 입습니다.
그래서 대규모 데이터 수집, 행동 추적, 상시 모니터링 같은 기능은 안전이나 개인화, 혁신이라는 이름으로 포장되더라도 점점 더 ‘편의 기능’이라기보다는 잠재적 위험 요소처럼 느껴지곤 합니다. 문제가 생겼을 때 실제로 후폭풍을 감당해야 하는 쪽은 데이터를 모은 기업이 아니라, 대개 그 데이터를 제공한 사용자이기 때문입니다. 사용자는 기업이 스스로 책임 있게 행동할 것이라는 기대 위에 서 있고, 그렇지 않을 경우 누군가가 이를 적시에 잡아낼 것이라는 희망에 기대야 합니다. 어쩌면 이런 구조는 예전부터 크게 달라지지 않았을 수도 있습니다. 하지만 OkCupid 사례가 보여주듯 실질적인 책임 추궁이 거의 없다면, 기업 입장에서 다음번에는 다르게 행동해야 할 동기가 생기기 어렵습니다.









