A partir de ahora, los usuarios de la app podrán denunciar perfiles que podrían estar usando fotos y vídeos generados con Inteligencia Artificial. Esta actualización llega mientras Bumble está desarrollando nuevas medidas de seguridad para respaldar su misión de fomentar relaciones saludables y equitativas, y seguir poniendo a las mujeres en el centro de sus experiencias. A principios de este año, Bumble también implementó Deception Detector, una herramienta de IA que ayuda a identificar spam, estafas y perfiles falsos. En los dos primeros meses, Bumble vio cómo las denuncias de spam, estafas y perfiles falsos se redujeron en un 45%.
A medida que el ecosistema de las citas evoluciona, Bumble se centra en el uso responsable de la IA y en abordar los nuevos retos que plantea el uso engañoso de la tecnología. En una encuesta reciente de Bumble*, el 71% de los encuestados de los Gen Z y millennials consideraron que debería haber límites en el uso de fotos de perfil y biografías generadas por IA en las aplicaciones de citas. Además, el 71% de los encuestados cree que quienes utilizan fotos generadas por IA de sí mismos haciendo cosas que nunca han hecho o visitando lugares en los que nunca han estado, podrían calificarse como catfishing.
«Una parte esencial en la creación de un espacio donde se puedan construir conexiones significativas es eliminar cualquier elemento que sea engañoso o peligroso. Estamos comprometidos a mejorar continuamente nuestra tecnología para garantizar que Bumble sea un entorno de citas seguro y de confianza. Al implementar esta nueva opción de denuncia, podemos entender mejor cómo los malos actores y los perfiles falsos utilizan la IA de manera engañosa para que nuestra comunidad se sienta segura a la hora de establecer conexiones» indicó Risa Stein, vicepresidenta de producto de Bumble.