Theo số liệu của DataReportal, hiện Việt Nam đang có khoảng 49,9 triệu người sử dụng mạng xã hội TikTok, xếp thứ 6 trên 10 quốc gia có số người sử dụng TikTok nhiều nhất thế giới. Đáng chú ý là mạng xã hội này đang dần chiếm lĩnh thị trường nhờ vào những đoạn video có nội dung đa dạng mang tính "gây nghiện", thu hút mọi lứa tuổi.
Chia sẻ tại buổi họp báo thường kỳ của Bộ Thông tin và Truyền thông vào đầu tháng 4 vừa qua, ông Lê Quang Tự Do, Cục trưởng Cục Phát thanh, Truyền hình và Thông tin điện tử, chia sẻ trước đây nền tảng TikTok có nội dung thuần túy về giải trí. Nhưng từ năm 2022, nền tảng này ngày càng xuất hiện nhiều nội dung độc hại như những thử thách nguy hiểm, những video phản cảm mang tính quấy rối được lan truyền mạnh mẽ, gây ảnh hưởng đặc biệt đến trẻ em Việt Nam.
Đây không phải là vấn đề của riêng TikTok Việt Nam nữa, mà nó đã trở thành tình trạng chung của nhiều nước trên thế giới. Chính vì vậy, nhiều chính phủ đã dựng lên các "màng lọc", "hàng rào" để hạn chế mặt trái của mạng xã hội này, cũng như đưa ra các quy định nghiêm ngặt về việc chia sẻ nội dung, không chỉ TikTok mà còn áp dụng với nhiều mạng xã hội phổ biến nhằm bảo vệ trẻ em và thanh thiếu niên.
Đơn cử như Pháp, các nghị sĩ quốc hội Pháp đã ủng hộ dự luật củng cố "Thời đại kỹ thuật số" được thông qua vào ngày 2 tháng 3, yêu cầu các nền tảng mạng xã hội từ chối cho phép trẻ vị thành niên dưới 15 tuổi đăng ký tài khoản trên nền tảng. Đặc biệt, nếu các công ty không tuân thủ theo quy định thì có thể bị phạt tới 1% doanh thu toàn cầu. Tất nhiên, việc kiểm soát này vẫn còn nhiều lỗ hổng và chưa thực sự hiệu quả bởi người dùng dưới 18 tuổi vẫn có thể "lách luật" bằng cách khai không đúng về tuổi.
Để siết chặt hơn quyền truy cập của trẻ vị thành niên, Pháp dự kiến sẽ trở thành quốc gia đầu tiên thiết lập kiểm soát của phụ huynh làm cài đặt mặc định cho điện thoại được bán tại các cửa hàng tại Pháp vào năm 2023. Bên cạnh đó, theo The Independent, tại Pháp, nếu không tuân thủ yêu cầu xóa bỏ nội dung kích động, khiêu dâm, khủng bố trong vòng 24 giờ, các nền tảng có thể bị phạt lên đến 1,25 triệu euro (1 triệu bảng Anh).
Hay chính phủ Australia cũng công bố một dự thảo luật nhằm tăng cường bảo vệ quyền riêng tư trên nền tảng trực tuyến. Trong đó có nội dung đề xuất trẻ em dưới 16 tuổi muốn tham gia các nền tảng xã hội thì cần nhận được sự đồng ý của phụ huynh. Dự luật này sẽ ngăn các công ty truyền thông xã hội truy cập dữ liệu của trẻ em mà không có sự cho phép của phụ huynh. Các công ty truyền thông xã hội vi phạm luật có thể sẽ phải đối mặt với hình phạt lên đến 10% doanh thu toàn cầu.
Theo Newsweek, các giám đốc điều hành có thể sẽ bị kết án tù nếu các nền tảng đăng tải những hình ảnh bạo lực gây hại cho cộng đồng. Đây được xem là động thái mạnh mẽ của Australia nhằm hạn chế những tác động tiêu cực của mạng xã hội đối với lứa tuổi vị thành niên.
Đỉnh điểm gần đây nhất, theo NYT, Cơ quan quản lý dữ liệu của Vương quốc Anh (ICO) đã phạt TikTok 12,7 triệu bảng Anh (khoảng 15,9 triệu USD) vì đã vi phạm luật bảo vệ dữ liệu, bao gồm cả việc sử dụng dữ liệu cá nhân của trẻ em dưới 13 tuổi mà không có sự đồng ý của phụ huynh.
Có thể thấy, hầu hết các quốc gia đều đang tăng cường quản lý mạng xã hội, nhằm bảo đảm môi trường an toàn nhất, lành mạnh nhất đối với trẻ em và thanh thiếu niên.
Trước sự giám sát ngày càng chặt chẽ từ các cơ quan quản lý và các nhà lập pháp, đặc biệt là về vấn đề bảo mật và an toàn của trẻ em trên nền tảng, TikTok đã phải lập thêm đội ngũ kiểm duyệt, tăng cường cơ chế bảo mật và đặt ra hạn chế bổ sung với người dùng 14-18 tuổi.
Đồng thời, theo CBSN, đầu năm 2023, TikTok đã ra mắt tính năng giới hạn thời gian sử dụng ứng dụng 60 phút/mỗi ngày đối với các tài khoản dưới 18 tuổi, và người dùng dưới 18 tuổi sẽ phải nhập mật mã để tiếp tục xem video sau 60 phút sử dụng. Ngoài ra, đối với những người dùng nhỏ tuổi sử dụng TikTok thông qua tài khoản của phụ huynh, phụ huynh có thể cài đặt thời gian sử dụng tối đa cho tài khoản.