En un intento por frenar el uso de contenido fraudulento, el Gobierno de España aprobó una nueva normativa en pos del "buen uso de la Inteligencia Artificial (IA)": las empresas que utilicen contenidos generados por esta herramienta sin etiquetarlos adecuadamente podrían tener sanciones de hasta €35.000.000.

La misma iniciativa impuso estrictas obligaciones de transparencia a los sistemas considerados de alto riesgo, dado que se trata de un recurso "muy poderoso" y que puede utilizarse para "mejorar nuestras vidas o atacar a la democracia", alertó el ministro para la Transformación Digital y de la Función Pública, Óscar López, en una rueda de prensa.

En caso de incumplimiento, se exponen a penas en función de su gravedad. La sanción de una infracción grave oscilará entre los €7.500.000 y €35.000.000.

TE PODRÍA INTERESAR: Elon Musk alertó sobre una crisis mundial inminente y advirtió que la próxima sequía no será de agua sino "eléctrica"

El reglamento prohíbe determinados "usos maliciosos" de la IA, introduce obligaciones más rigurosas para sistemas considerados de alto riesgo y establece unos requisitos mínimos de transparencia para el resto.

El proyecto de ley también prohíbe otras prácticas, como el uso de técnicas subliminales -sonidos e imágenes imperceptibles- para manipular a grupos vulnerables. López citó como ejemplos los "chatbots" que incitan a apostar a aquellos usuarios con adicciones.

El conflicto estalló cuando el Partido Popular de ese país utilizó un llamativo video creado con IA para arremeter contra el Ejecutivo de Pedro Sánchez por el presunto caso de corrupción que salpica al exministro de Transportes José Luis Ábalos, en el marco del "caso Koldo", como se denomina a un entramado de corrupción con barbijos desatado durante la pandemia de Covid 19.

Por esto, instalaron como una falta de gravedad el mostrar contenido de personas reales o inexistentes al crear una escena que no aconteció o de las cuales no hay pruebas