TikTok이 사용자에게 AI 생성 콘텐츠의 노출을 조절할 수 있는 새로운 기능을 도입한다. 이는 AI 콘텐츠의 급증에 따른 사용자 피로를 해소하고, 플랫폼의 투명성과 신뢰성을 높이기 위한 조치로 해석된다.
최근 TikTok은 ‘AI slop
AI 슬롭
목차
개념 정의
용어의 유래 및 발전 과정
핵심 특징 및 문제점
주요 활용 사례 및 사회적 영향
현재 동향 및 대응 노력
미래 전망 및 과제
1. 개념 정의
AI 슬롭(AI Slop)은 인공지능이 대량으로 생성하는 저품질의 온라인 콘텐츠를 의미하는 경멸적인 용어이다. 여기서 '슬롭(slop)'이라는 단어는 원래 돼지 사료나 음식물 찌꺼기처럼 지저분하거나 맛없는 것을 뜻하는 말에서 유래했다. 디지털 시대에 이 용어는 정확성이나 창의성에 대한 고려 없이 쏟아져 나오는 저급 AI 생성 콘텐츠를 지칭하기 위해 재활용되었다.
AI 슬롭은 노력, 품질, 깊이 있는 의미가 결여된 생성형 AI 콘텐츠를 특징으로 하며, 콘텐츠 자체의 목적보다는 대량 생산에 초점을 맞춘다. 이는 진정성이 부족하고, 사실적 오류를 포함하거나, 정형화된 패턴을 보이는 경향이 있다. 예를 들어, 특정 주제에 대한 깊이 있는 통찰력 없이 일반적인 문구를 반복하거나, 맥락에 맞지 않는 정보를 자신감 있게 제시하는 경우가 많다. 이러한 콘텐츠는 종종 "디지털 잡동사니" 또는 "실질적인 내용이나 품질보다 속도와 양을 우선시하는 채우기 콘텐츠"로 묘사된다.
2. 용어의 유래 및 발전 과정
'AI 슬롭'이라는 용어는 2020년대에 등장했으며, 특히 2022년 AI 이미지 생성기가 출시된 이후 저급 AI 콘텐츠를 설명하는 데 사용되기 시작했다. 초기에는 4chan, 해커 뉴스, 유튜브 등 온라인 커뮤니티에서 내부 그룹 속어로 사용되었다.
이 용어는 2024년 5월 영국의 컴퓨터 프로그래머 사이먼 윌리슨(Simon Willison)이 자신의 개인 블로그에서 "슬롭은 원치 않는 AI 생성 콘텐츠의 새로운 이름이다"라고 언급하며 대중화에 기여했다. 윌리슨은 모든 AI 생성 콘텐츠가 슬롭은 아니지만, "무심하게 생성되어 요청하지 않은 사람에게 강요되는 콘텐츠"는 슬롭이라고 정의했다. 2024년 2분기에 구글이 제미니(Gemini) AI 모델을 검색 쿼리 응답에 사용하면서 이 용어는 더욱 인기를 얻었다.
2025년에는 미국 사전 출판사인 메리엄-웹스터(Merriam-Webster)가 '올해의 단어'로 '슬롭'을 선정하며 그 문화적 중요성을 인정했다. 메리엄-웹스터는 슬롭을 "인공지능을 통해 일반적으로 대량으로 생산되는 저품질의 디지털 콘텐츠"로 정의했다. 또한, 2025년에는 'AI 슬롭'에서 파생된 경멸적인 속어인 '슬로퍼(slopper)'가 만들어져 생성형 AI 도구에 과도하게 의존하는 사람을 지칭하는 데 사용되기도 했다.
3. 핵심 특징 및 문제점
AI 슬롭은 여러 가지 특징을 통해 식별되며, 이로 인해 다양한 문제점이 발생한다.
3.1. 핵심 특징
대량 생산 및 품질보다 양 우선: AI 슬롭은 주로 속도와 양을 최우선으로 하여 생성된다. 이는 인간의 감독이나 품질 관리가 최소화된 상태에서 이윤 추구나 참여 지표 조작을 목적으로 빠르게, 그리고 저렴하게 만들어진다.
진정한 통찰력이나 가치 부족: AI 슬롭은 특정 주제에 대한 깊이 있는 통찰력, 개인적인 관점, 또는 미묘한 이해가 부족하다. 결과적으로 내용이 피상적이고, 독자에게 실질적인 가치를 제공하지 못하는 경우가 많다.
사실적 오류 및 오래된 정보: AI 모델은 훈련 데이터의 한계나 잘못된 해석으로 인해 사실적 오류를 포함하거나 오래된 정보를 제시할 수 있다. 이는 "부주의한 발언(careless speech)"으로 불리며, 정확하게 정보를 전달하기보다는 설득하려는 의도가 강하다.
반복적인 문구 및 정형화된 구조: AI 생성 텍스트는 종종 반복적인 문구, 일반적인 언어 패턴, 그리고 예측 가능한 형식(예: 번호가 매겨진 목록, 소제목, 요약 결론)을 보인다. 이는 독서 경험을 단조롭고 몰입하기 어렵게 만든다.
인간적인 감각의 부재: AI 슬롭은 인간적인 감성, 공감, 또는 맥락에 대한 진정한 이해가 결여되어 있다. 이는 기술적으로는 능숙할 수 있지만, 예술적 비전이나 정서적 공명이 부족한 결과물로 이어진다.
"언캐니 밸리" 효과: AI 생성 이미지는 종종 "언캐니 밸리(uncanny valley)" 효과를 보이거나 비논리적인 요소(예: 손가락이 6개인 이미지, 왜곡된 얼굴)를 포함하여 인공적인 기원을 드러낸다.
3.2. 문제점
AI 슬롭의 확산은 다음과 같은 심각한 문제점을 야기한다.
정보의 질 저하 및 신뢰도 하락: 저품질 AI 콘텐츠가 인터넷을 범람하면서 사용자들은 신뢰할 수 있는 정보를 찾기 어려워진다. 이는 디지털 정보 소스에 대한 전반적인 신뢰를 훼손하며, 잘못된 정보와 허위 정보의 확산을 부추긴다.
검색 알고리즘 조작 및 광고 수익 창출 목적: 많은 AI 슬롭은 검색 엔진 최적화(SEO) 알고리즘을 조작하고 광고 수익을 창출하기 위해 제작된다. 이는 검색 결과의 품질을 떨어뜨리고, 사용자 경험을 저해하며, 합법적인 콘텐츠 제작자들의 노력을 무색하게 만든다.
모델 붕괴(Model Collapse) 위험: AI 슬롭의 가장 위험한 결과 중 하나는 미래 AI 모델의 훈련 데이터를 오염시킬 가능성이다. AI 시스템이 자체 출력물을 포함한 공개 데이터를 기반으로 재훈련되면서, 합성 데이터의 반복적인 사용은 모델 품질 저하, 즉 '모델 붕괴'로 이어질 수 있다. 이는 AI 모델의 다양성, 어휘 풍부성, 전반적인 콘텐츠 품질을 떨어뜨리는 악순환을 초래한다.
인간 창작물의 가치 하락 및 창작 경제 위협: AI 슬롭은 인간이 만든 고품질 콘텐츠를 압도하여, 작가, 예술가, 언론인 등 인간 창작자들의 생계를 위협하고 그들의 작품을 가치 절하한다. 진정한 창의성과 독창성이 저품질의 대량 생산 콘텐츠에 묻히게 되는 것이다.
"죽은 인터넷 이론(Dead Internet Theory)" 가속화: AI 슬롭의 범람은 온라인 콘텐츠의 상당 부분이 인간이 아닌 봇에 의해 생성된다는 "죽은 인터넷 이론"을 가속화한다. 이는 진정한 인간적 표현이 기계 생성 콘텐츠에 의해 압도되는 환경을 조성하여 디지털 문화와 커뮤니티 참여에 심각한 문제를 제기한다.
4. 주요 활용 사례 및 사회적 영향
AI 슬롭은 인터넷의 거의 모든 영역에 침투하여 다양한 분야에서 나타나고 있으며, 광범위한 사회적 영향을 미치고 있다.
4.1. 주요 활용 사례
소셜 미디어 및 온라인 광고: 소셜 미디어 플랫폼은 AI 슬롭의 가장 큰 온상 중 하나이다. 저품질 AI 생성 이미지, 비디오, 텍스트 게시물이 급증하여 사용자 피드를 가득 채우고 있다. 특히, 새로운 유튜브 사용자에게 추천되는 영상의 20% 이상이 AI 슬롭이라는 연구 결과도 있다. 이러한 콘텐츠는 종종 조회수와 광고 수익을 목적으로 제작되며, 페이스북과 틱톡 등에서 두드러진다.
서적 및 출판: AI 생성 콘텐츠는 전자책 시장에도 침투하여, 저품질의 책들이 대량으로 출판되고 있다. 심지어 과학 학술 연구 분야에서도 AI 슬롭이 증가하고 있다는 보고가 있다.
비디오 게임, 영화 및 텔레비전: 일부 영화는 AI 생성 콘텐츠를 사용하여 비판을 받기도 했다. 예를 들어, 영화 은 부정확한 골격 구조나 손가락이 제대로 생성되지 않은 AI 이미지를 사용해 논란이 되었다. 아마존 프라임 비디오와 같은 스트리밍 서비스도 AI를 활용하여 포스터나 썸네일 이미지를 생성하는 과정에서 슬롭이 발생하기도 한다.
음악: AI 생성 음악은 유튜브 추천 목록을 침범하여 실제 아티스트의 수입을 잠식하고 있다. 스포티파이(Spotify)는 7,500만 개 이상의 스팸성 또는 저품질 AI 생성 트랙을 삭제하기도 했다.
과학 및 학술 연구: AI는 학술 생산성을 높일 수 있지만, 저품질의 "과학적 AI 슬롭"을 양산할 수 있다는 우려도 있다. 한 연구에 따르면, AI를 사용하기 시작한 저자의 사전 인쇄물(preprint) 수가 크게 증가했다.
비즈니스 및 마케팅: 마케터들은 콘텐츠 제작, 아이디어 구상, SEO 최적화 등에 AI를 활발히 사용하지만, AI 슬롭은 브랜드 평판을 손상시키고 고객 신뢰를 약화시킬 수 있다.
정치 캠페인: AI 슬롭은 정치 캠페인에서 관심을 끌기 위한 콘텐츠 파밍(content farming) 목적으로 자주 사용된다.
4.2. 사회적 영향
AI 슬롭의 확산은 사회 전반에 걸쳐 다음과 같은 심각한 영향을 미친다.
정보 생태계의 왜곡: AI 슬롭은 "왜곡된 정보 생태계"를 조성하여 사용자들을 압도하고 둔감하게 만들며, 신뢰를 얻기 어렵게 만든다. 이는 사람들이 온라인 정보에 대한 회의감을 갖게 하고, 잘못된 정보와 조작에 취약하게 만든다.
"슬롭 경제(slop economy)" 형성: 저품질 AI 콘텐츠를 대량으로 생산하는 것이 저렴하고 수익성이 좋기 때문에 "슬롭 경제"라는 현상이 나타나고 있다. 이는 고품질 콘텐츠에 비용을 지불하지 않는 사용자들이 저품질의 광고 최적화된 콘텐츠에 압도되는 2계층 인터넷을 형성한다.
민주주의 위협: 슬롭 경제는 유권자를 오도하고, 기관에 대한 신뢰를 약화시키며, 선정적인 콘텐츠를 증폭시켜 양극화를 부추김으로써 민주주의에 심각한 위협이 될 수 있다.
플랫폼 신뢰도 저하: AI 슬롭의 범람은 소셜 미디어 및 검색 엔진과 같은 플랫폼의 신뢰도를 떨어뜨린다. 플랫폼이 참여도를 우선시하고 진정성을 경시하는 "엔시티피케이션(enshittification)" 현상이 심화되면서, 진정한 인간 콘텐츠를 AI 슬롭과 구별하는 것이 더욱 중요해지고 있다.
인지 능력 저하 가능성: 일부 연구에서는 AI 사용이 인지 능력을 저해할 수 있다고 지적한다. 비판적 사고 없이 AI 생성 콘텐츠에 의존하는 경향은 정보 리터러시 능력을 약화시킬 수 있다.
5. 현재 동향 및 대응 노력
AI 슬롭의 확산은 현재 진행형인 문제이며, 이에 대한 다양한 대응 노력이 이루어지고 있다.
5.1. 현재 동향
AI 생성 콘텐츠의 폭발적 증가: 2025년 5월까지 새로 발행된 웹 기사의 52%가 AI에 의해 생성되었다는 연구 결과가 있다. 또한, 옥스포드 연구원들은 내년까지 인터넷 자료의 90%가 AI 콘텐츠로 채워질 수 있다고 전망했다. 이는 '슬롭 경제'라는 비판을 낳으며, 디지털 콘텐츠의 양적 팽창을 보여준다.
마케팅 분야의 AI 활용 증가: 2025년 기준으로 전 세계 마케터의 80% 이상이 디지털 전략에 AI를 사용하고 있으며, 53%는 AI 때문에 팀을 재편성했다. 마케터의 76%는 콘텐츠 제작에 생성형 AI를 활용하고 있다. 그러나 71.2%의 마케터는 AI 슬롭이 콘텐츠 품질에 심각한 위협이 된다고 인식하고 있다.
사용자 피로도 증가: 2025년 말 조사에 따르면, 챗GPT나 구글 제미니와 같은 인기 AI 도구 사용자가 몇 달 전보다 줄어들었다는 보고도 있다. 이는 사용자들이 디지털 잡동사니에 대한 피로감을 느끼고 있음을 시사한다.
5.2. 대응 노력
주요 플랫폼 기업과 사회 각 분야에서는 AI 슬롭 문제에 대응하기 위한 노력을 기울이고 있다.
플랫폼 기업의 가이드라인 강화 및 수익 제한:
유튜브(YouTube): 2025년 7월, 유튜브는 독창성이 부족한 "대량 생산되거나 반복적이거나 AI 생성" 콘텐츠를 제작하는 크리에이터에게 수익 지급을 중단하겠다고 발표했다.
구글(Google): 구글은 AI 슬롭이 검색 순위를 조작하는 것을 막기 위해 노력하고 있으며, AI 생성 콘텐츠에 대한 가이드라인을 강화하고 있다. 2024년 11월에는 제3자 콘텐츠 악용을 겨냥한 사이트 평판 남용 정책을 시행하고, 12월에는 생성형 AI 금지 사용 정책을 업데이트했다.
메타(Meta): 메타는 AI 생성 콘텐츠에 대한 정책을 수립하고 있으며, 2025년 4월에는 공개 게시물을 AI 훈련에 사용할 수 있도록 개인정보 보호 정책을 업데이트했다. 또한, AI 생성 콘텐츠임을 명확히 표시하도록 의무화하는 등 투명성을 높이는 노력을 하고 있다.
스포티파이(Spotify): 스포티파이는 스팸성 또는 저품질 AI 트랙 7,500만 개 이상을 삭제했으며, 모방에 대한 강력한 규칙과 새로운 음악 스팸 필터를 도입했다.
인간 감독 및 품질 관리 강화: AI 슬롭을 줄이기 위한 가장 효과적인 방법 중 하나는 '인간 개입(human-in-the-loop)' 검토이다. 마케팅 팀의 53.5%가 인간 검토를 통해 AI 슬롭을 줄인다고 응답했으며, 명확한 가이드라인을 통한 맞춤형 모델 훈련도 효과적인 방법으로 꼽힌다.
AI 감지 기술 개발: AI 슬롭을 감지하고 걸러내는 기술적 장치에 대한 연구와 개발이 진행 중이다. 그러나 AI 모델이 발전하고 회피 기술이 진화함에 따라 감지 기술도 계속해서 적응해야 하는 과제가 있다.
정보 리터러시 교육의 중요성 증대: 교육자들은 학생들이 AI 생성 콘텐츠를 비판적으로 평가하고, 정보의 출처를 확인하며, 직접적인 정보를 찾는 능력을 키워야 한다고 강조한다.
윤리적 지침 및 규제 논의: AI 슬롭의 확산은 AI 윤리 지침 준수와 더불어, 광고 네트워크가 편집 기준이 없는 웹사이트에 자금을 지원하지 않도록 하는 등 비즈니스 인센티브를 재조정하는 규제적 해결책에 대한 논의를 촉발하고 있다.
6. 미래 전망 및 과제
AI 슬롭의 확산은 디지털 콘텐츠 환경의 미래에 대한 낙관적인 전망과 함께 근본적인 도전을 제시한다.
6.1. 미래 전망
인간 창작 콘텐츠의 가치 상승: AI 슬롭의 범람은 역설적으로 인간이 만든 고품질 콘텐츠의 가치를 높일 수 있다. 진정성, 독창성, 그리고 인간적인 통찰력이 담긴 콘텐츠는 AI 생성 콘텐츠와 차별화되어 더욱 중요하게 인식될 것이다.
플랫폼의 적응과 진화: 구글, 유튜브 등 주요 플랫폼들은 AI 슬롭의 확산에 대응하여 저품질 AI 생성 콘텐츠를 감지하고 순위를 낮추는 더욱 정교한 방법을 개발할 수밖에 없을 것이다. 이는 플랫폼 자체의 가치와 사용자 경험을 유지하기 위한 필수적인 조치이다.
AI의 보조 도구 역할 강화: AI는 인간의 창의성을 대체하기보다는 보조하는 도구로서의 역할이 더욱 강조될 것이다. 전략, 독창성, 인간적 통찰력과 AI의 효율성을 결합한 콘텐츠가 경쟁력을 가질 것으로 예상된다.
6.2. 과제
기술적 감지 및 필터링의 한계: AI 슬롭을 감지하고 걸러내는 기술은 계속 발전하겠지만, AI 모델의 정교함이 증가하고 회피 기술이 진화하면서 완벽한 해결책을 찾기 어려울 수 있다.
디지털 공간의 진정성 및 창의성 유지: AI 슬롭의 증가는 디지털 공간의 진정성, 창의성, 그리고 인간적 연결에 대한 근본적인 도전으로 인식된다. 진정한 인간적 표현이 기계 생성 콘텐츠에 의해 묻히지 않도록 하는 노력이 필요하다.
정보 리터러시 및 비판적 사고 능력 함양: 사용자들이 AI 생성 콘텐츠를 비판적으로 평가하고, 정보의 출처를 확인하며, 신뢰할 수 있는 정보를 선별하는 능력을 키우는 것이 중요하다.
정책 및 규제의 필요성: AI 슬롭의 확산을 막기 위해서는 기술적 해결책뿐만 아니라, AI 윤리 지침 준수, AI 생성 콘텐츠 명확한 표시 의무화, 그리고 플랫폼의 책임 강화 등 다각적인 정책적, 규제적 노력이 필요하다.
"모델 붕괴"의 장기적 영향: AI 시스템이 자체 생성 콘텐츠로 재훈련되면서 발생하는 "모델 붕괴"는 AI 기술 자체의 장기적인 품질과 유용성에 대한 심각한 우려를 낳는다. 데이터 큐레이션과 같은 신중한 접근 방식이 요구된다.
결론적으로, AI 슬롭은 단순한 기술적 문제가 아니라 디지털 정보 생태계의 건전성, 인간 창의성의 가치, 그리고 사회적 신뢰에 영향을 미치는 복합적인 도전이다. 미래에는 기술적 장치와 더불어 품질 중심의 문화적 전환, 인간 검수 필수화, 그리고 AI 윤리 지침 준수 등 다각적인 노력이 필요할 것으로 보인다.
참고 문헌
AI Slop: The Flood of Low-Quality AI-Generated Content and Its Impact on the Internet. (2025년 2월 16일). Google Cloud Vertex AI Search.
AI slop - Wikipedia. (n.d.).
What Is AI Slop? The Growing Problem Explained - Entrepreneur Loop. (2025년 11월 26일).
AI Slop: How AI-Generated Content is Impacting Information Discovery - SearchStax. (2024년 11월 27일).
AI Slop: Is AI-Generated Content Really That Bad? - T3 Consultants. (2025년 10월 7일).
The cost of AI slop could cause a rethink that shakes the global economy in 2026. (2026년 1월 4일). The Guardian.
The web is awash in AI slop. Real content is for subscribers only, and democracy suffers. (2025년 10월 23일). The Washington Post.
53 AI Marketing Statistics for 2025 - Ahrefs. (2025년 7월 16일).
Why Marketers Can't Afford AI Slop in a Turbulent Economy | Basis. (2025년 8월 18일).
What is AI Slop? Why Low-Quality AI Content is Taking Over Internet - Blow Horn Media. (2025년 12월 3일).
How the Rise of 'AI Slop' Is Changing Academic Research Writing - BOOM Fact Check. (2025년 12월 26일).
Navigating the Rise of 'Slop': The Impact of AI on Digital Content Quality - Oreate AI Blog. (2025년 12월 24일).
Detecting AI Slop: Techniques & Red Flags - Rost Glukhov | Personal site and technical blog. (n.d.).
58 Generative AI Statistics for 2025: Trends & Insights - Mend.io. (2025년 8월 28일).
You Probably Already Saw AI Slop Today. What Educators Need To Know About This Fast-Growing and Harmful Trend - Tech & Learning. (2025년 10월 22일).
What is AI Slop and How to Avoid It? - Sky High Thinkers - Libryo. (2025년 1월 17일).
More than 20% of videos shown to new YouTube users are 'AI slop', study finds | AI (artificial intelligence) | The Guardian. (2025년 12월 27일).
What is AI slop and why advertisers should care about it now - PPC Land. (2026년 1월 3일).
Will AI “Slop” Kill The Creator Economy? The Unfiltered Truth | by Pooja Sharma | Medium. (2025년 10월 5일).
Content Marketing Statistics to Watch: AI, SEO & What's Working Now - Typeface. (n.d.).
AI Slop is Making Everyone Sound Alike: Insights From 100 Marketers - The Growth Seat. (2025년 8월 11일).
AI Slop Music Invades YouTube Recommendations, Undermines Artists - WebProNews. (2026년 1월 5일).
10 Eye Opening AI Marketing Stats to Take Into 2026 | Digital Marketing Institute. (2025년 12월 9일).
Microsoft CEO wants you to stop calling AI "slop" in 2026 | Windows Central. (2026년 1월 2일).
AI slop is taking over the internet. Here's how we got here. - Mashable. (n.d.).
'AI Slop' Is Turning Up Everywhere. An Expert Explains What's at Stake. - Science Alert. (2025년 9월 6일).
AI paradoxes: Why AI's future isn't straightforward | World Economic Forum. (2025년 12월 30일).
Slop is the new name for unwanted AI-generated content - Simon Willison's Weblog. (2024년 5월 8일).
Building AI applications without AI Slop - DEV Community. (2026년 1월 8일).
How to Prevent AI Workslop and Build Smarter Processes - Weaver. (2025년 11월 10일).
WATCH: Susan Ferrechio on the high-stakes debate over artificial intelligence and 'AI slop'. (2025년 12월 31일). Washington Examiner.
How platforms are handling the slop backlash. (2025년 10월 16일). The Verge.
Meta's secret weapon against content chaos - PPC Land. (2026년 1월 2일).
AI slop predates AI - The Ethan Hein Blog. (2025년 12월 10일).
Are platforms like Google and Facebook destroying their own moats with AI slop? - Reddit. (2025년 6월 23일).
’으로 불리는 AI 생성 콘텐츠의 확산에 대응하기 위해 사용자가 ‘For You’ 피드에서 AI 콘텐츠의 노출 빈도를 직접 조절할 수 있는 슬라이더 기능을 발표했다. 이 기능은 기존의 주제 조정 기능과 유사하게 설정할 수 있다. 이러한 조치는 AI 콘텐츠의 과도한 노출로 인한 사용자 불만을 해결하기 위한 것이다. Deloitte의 조사에 따르면, 미국 소비자의 약 35%가 소셜 미디어에서 생성 AI를 사용하고 있다고 한다.
TikTok은 AI 콘텐츠를 식별하기 위해 ‘보이지 않는 워터마크’ 기술을 도입하고, ‘Created with AI’ 라벨을 강화하여 콘텐츠의 투명성을 높이고자 한다. 이 기술은 TikTok의 자체 도구로 제작된 콘텐츠나 C2PA 메타데이터가 포함된 콘텐츠에 적용되어, 편집 후에도 AI 여부를 식별할 수 있도록 설계되었다.
또한, TikTok은 AI 리터러시 향상을 위해 200만 달러 규모의 기금을 조성하고, Girls Who Code 등과 협력하여 책임 있는 AI 사용 교육을 지원할 계획이다. 이는 사용자와 창작자에게 AI 콘텐츠의 이해와 책임 있는 활용을 교육하는 기반이 될 것이다.
TikTok의 이러한 기능 도입은 사용자에게 피드 콘텐츠에 대한 통제권을 강화함으로써, AI 콘텐츠 과잉 노출에 대한 불만을 완화하고, 플랫폼의 신뢰성을 높이는 데 기여할 것으로 보인다. 앞으로 이러한 흐름은 다른 소셜 미디어 플랫폼에도 확산될 가능성이 높다.
© 2026 TechMore. All rights reserved. 무단 전재 및 재배포 금지.


