La Comisión Federal de Comercio de Estados Unidos (FTC) comenzó una investigación formal sobre chatbots de IA de compañías grandes como Alphabet, Meta, OpenAI, Snap, y otros. La meta es entender cómo funcionan, qué tan seguros son, y qué riesgos pueden implicar para los usuarios.
Se busca saber cómo estas empresas miden y monitorean efectos negativos, cómo procesan lo que los usuarios escriben, cómo generan respuestas, y qué hacen con los datos de conversación. Especial atención en si monetizan interacciones o usan información sensible de los usuarios.
Esta investigación surge luego de reportes donde algunos chatbots habrían tenido conversaciones inapropiadas, incluyendo menores, así como demandas que los vinculan con casos de salud mental entre jóvenes. Las autoridades quieren responsabilidad clara.
Algunas empresas han dicho que cooperarán y tienen mecanismos de seguridad, verificación o filtros internos para evitar abusos. Otras han preferido no comentar. El interés es establecer estándares y exigir rendición de cuentas.
Te puede interesar: Hombre de 62 años se vacunó 217 veces contra Covid-19; así reaccionó su cuerpo
La FTC tiene autoridad para imponer sanciones, exigir prácticas de transparencia, y obligar cambios si se demuestra que hubo fallas. Este seguimiento regulatorio puede obligar a mejores controles internos, auditorías y políticas de privacidad más estrictas.
Una parte crítica es la protección de menores, la privacidad, la veracidad de las respuestas generadas, y asegurar que no se use la IA para manipular usuarios. También se considera el potencial daño psicológico.
Este tipo de investigaciones también puede influir en regulaciones futuras, no solo en Estados Unidos, sino como modelo para otros países que preocupados por los riesgos de la IA quieren legislar.
Empresas tecnológicas están al tanto de que su reputación también está en juego. Usuarios, medios, organizaciones de derechos digitales han sido muy críticos en casos pasados donde fallaron mecanismos de seguridad.
La noticia importa porque marca un cambio: la IA ya no es libre de supervisión; se le está pidiendo responsabilidad y consecuencias si no cumple estándares éticos y legales.
NOTICIAS CHIHUAHUA