En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información aquí

¡Hola !, Tu correo ha sido verficado. Ahora puedes elegir los Boletines que quieras recibir con la mejor información.

Bienvenido , has creado tu cuenta en EL TIEMPO. Conoce y personaliza tu perfil.

Hola Clementine el correo [email protected] no ha sido verificado. VERIFICAR CORREO

icon_alerta_verificacion

El correo electrónico de verificación se enviará a

Revisa tu bandeja de entrada y si no, en tu carpeta de correo no deseado.

SI, ENVIAR

Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí.

Contenido automatizado

Tecnología

Entra en vigor la primera Ley de Inteligencia Artificial de la UE

ASDFGHJKLÑ

La ley reconoce que pueden incluir componentes de IA de código abierto o ser distribuidos bajo una licencia.

Foto:iStock.

Busca facilitar la comercialización y circulación de productos, y sistemas basados en IA, a partir del 2026.

Noticias GDA
Este jueves comenzará a regir la primera normativa destinada a regular los sistemas de inteligencia artificial (IA) con el fin de garantizar la seguridad y los derechos fundamentales de los ciudadanos de la Unión Europea frente a los riesgos asociados a esta tecnología.

Conforme a los criterios de

La normativa europea es innovadora a nivel mundial en la regulación de una tecnología tan avanzada como la inteligencia artificial, que ha estado presente durante años en servicios digitales de uso cotidiano, como las redes sociales, los sistemas de contenido en 'streaming' y los motores de búsqueda como Google o Bing.
Además, se utiliza en sectores como las finanzas, la salud, la atención al cliente, la agricultura y la logística, entre otros.
Esta legislación busca regular su uso bajo un marco legal uniforme, facilitando así la comercialización y circulación de productos y sistemas basados en IA, sin olvidar la ciberseguridad y el desarrollo tecnológico desde una perspectiva ética.
Se pretende que la adopción de esta tecnología se realice con el ser humano en el centro, con el objetivo de que sea confiable y "garantice un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea, incluidos la democracia, el Estado de Derecho y la protección del medio ambiente", para protegerlos de los "efectos adversos" que puedan surgir de los sistemas de IA.
Tras su publicación el pasado 12 de julio en el Diario Oficial de la UE, el reglamento de la IA entra en vigor oficialmente este jueves, aunque su aplicación obligatoria comenzará en dos años.

Enfoque basado en el nivel de peligro

Para entender los aspectos clave que agrupa esta normativa, es necesario considerar que se ha desarrollado con un enfoque basado en los niveles de peligro que presenta la IA, los cuales se dividen en tres categorías: los sistemas que representan un peligro inaceptable, los sistemas de alto peligro y los sistemas de peligro limitado.
Las aplicaciones y sistemas de IA que "representan un peligro inaceptable" están directamente prohibidos. Aunque la lista es extensa, esta categoría incluye los casos en los que se utilizan sistemas de categorización biométrica que infieren atributos sensibles como la raza, las opiniones políticas y la orientación sexual.
La ley fue pactada este viernes.

La normativa también abarca los modelos, en este caso, los de uso común.

Foto:iStock

También se incluyen los sistemas de puntuación social, como los utilizados en países como China, que clasifican a los usuarios para otorgar ciertos derechos o sancionar comportamientos inadecuados, y las técnicas subliminales, manipuladoras o engañosas que buscan distorsionar el comportamiento y perjudicar la toma de decisiones.
Sin embargo, existen algunas excepciones. Por ejemplo, aunque el uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad está prohibido, se podrá utilizar en situaciones específicas y definidas de manera estricta, siempre y cuando se obtenga un permiso previamente autorizado por un juez.
La normativa se centra principalmente en los denominados sistemas de IA de alto peligro, es decir, aquellos que "tengan un efecto perjudicial considerable en la salud, la seguridad y los derechos fundamentales de las personas".
Bajo esta descripción se incluyen sistemas tan variados como los de identificación biométrica remota, los utilizados para el seguimiento y detección de comportamientos prohibidos en estudiantes durante exámenes, los que evalúan la solvencia de personas físicas, los detectores de mentiras y herramientas similares, y los diseñados para influir en el resultado de una elección o en el comportamiento electoral de las personas.

Modelos de IA de uso común

La normativa también abarca los modelos, en este caso, los de uso común, definidos como aquellos que se entrenan con grandes volúmenes de datos mediante métodos como el aprendizaje autosupervisado, no supervisado o por refuerzo.
Aclara que, aunque los modelos son componentes fundamentales de los sistemas y forman parte de ellos, no constituyen sistemas de IA por sí mismos.
Estos modelos de IA de uso común están disponibles en el mercado a través de bibliotecas, interfaces de programación de aplicaciones (API), como descarga directa o en formato físico, y pueden ser modificados o mejorados y transformarse en nuevos modelos.
Un ejemplo de estos modelos es la inteligencia artificial generativa, que permite la creación de nuevos contenidos en diversos formatos como texto, imagen, vídeo y audio, adaptándose a una amplia gama de tareas, como ocurre con Gemini de Google o GPT de OpenAI.
La ley reconoce que pueden incluir componentes de IA de código abierto o ser distribuidos bajo una licencia libre y de código abierto, resaltando en este caso su alto grado de transparencia, pero subraya la necesidad de proteger los derechos de autor en lo que respecta a la información sustancial y a los contenidos de las bases de datos con los que se entrenan.
Además, menciona que estos modelos de IA de uso común pueden presentar riesgos sistémicos, que aumentan con sus capacidades y alcance, y pueden surgir en todo el ciclo de vida del modelo.
Insta a seguir la legislación internacional y estar atentos a usos indebidos como el descubrimiento y explotación de vulnerabilidades en sistemas informáticos, la interferencia en el funcionamiento de infraestructuras críticas, o incluso la posibilidad de que algunos modelos pueden autorreplicarse y entrenar otros modelos.

Responsabilidad y supervisión

Esta normativa se enfoca en el proveedor de los sistemas y modelos de IA, que puede ser el distribuidor, el importador, el responsable del despliegue u otra entidad, y sobre quien recae la responsabilidad a lo largo de la cadena de valor de esta tecnología.
En términos generales, exige que se realicen evaluaciones del nivel de peligro de sus productos y de los peligros que puedan surgir tanto antes de su lanzamiento al mercado como después de estar en él, así como la implementación de medidas necesarias para evitarlos o mitigarlos.
También se requiere el seguimiento de un código de buenas prácticas, supervisado por la Oficina de IA, y que será fundamental para el cumplimiento de las obligaciones pertinentes.
El reglamento también toma en cuenta la velocidad con la que avanza el desarrollo de esta tecnología y tiene previstas evaluaciones y revisiones periódicas del reglamento y de los sistemas de IA, especialmente de la IA de alto peligro, los ámbitos de alto peligro y las prácticas prohibidas, para su actualización.

Aspectos esenciales para la ciberseguridad

La nueva normativa incluye puntos clave que tienen implicaciones directas en la ciberseguridad para los usuarios y aseguran un uso adecuado, como destacaron en marzo desde la empresa Check Point, con motivo de su aprobación por el Parlamento Europeo.
.

El reglamento promueve la mitigación de sesgos y la discriminación.

Foto:iStock

La ley exige directrices de desarrollo e implementación más rigurosas, que consideren la seguridad desde el inicio, por ejemplo, mediante la incorporación de prácticas de codificación seguras y garantizando que los sistemas de IA sean resistentes a los ciberataques.
También requiere que las empresas responsables adopten medidas pertinentes para prevenir y abordar brechas de seguridad, y que sean más transparentes, especialmente en los sistemas de alto riesgo, para ayudar a identificar vulnerabilidades y mitigar posibles amenazas.
La normativa también busca evitar el uso de la IA con fines malintencionados, como la creación de 'deepfakes' o la automatización de ciberataques, mediante la regulación de ciertos usos de esta tecnología. Esto contribuye a reducir el riesgo de que se utilice como una herramienta de ciberguerra.
Asimismo, el reglamento promueve la mitigación de sesgos y la discriminación, instando a garantizar que los sistemas de IA se entrenen con conjuntos de datos diversos y representativos para reducir los procesos de toma de decisiones sesgados.

Más noticias

*Este contenido fue hecho con la asistencia de una inteligencia artificial con información de Europa Press y contó con la revisión del periodista y un editor.
Noticias GDA
icono el tiempo

DESCARGA LA APP EL TIEMPO

Personaliza, descubre e informate.

Nuestro mundo

COlombiaInternacional
BOGOTÁMedellínCALIBARRANQUILLAMÁS CIUDADES
LATINOAMÉRICAVENEZUELAEEUU Y CANADÁEUROPAÁFRICAMEDIO ORIENTEASIAOTRAS REGIONES
Nancy Pelosi, líder del Partido Demócrata.

EEUU

Nancy Pelosi: el arte del poder

La congresista y líder demócrata acaba de publicar un libro con sus memorias. Allí recoge parte de la historia reciente de Estados Unidos.

horóscopo

Horóscopo

Encuentra acá todos los signos del zodiaco. Tenemos para ti consejos de amor, finanzas y muchas cosas más.

Crucigrama

Crucigrama

Pon a prueba tus conocimientos con el crucigrama de EL TIEMPO