Principios de IA de Google

¿Por qué la ética es crucial en el desarrollo de la IA? Conoce los principios de Google para una inteligencia artificial responsable que busca evitar sesgos, proteger la privacidad y garantizar la seguridad de todos.

MARKETING DIGITALTENDENCIAS

Jorge Lara (& Google)

10/14/20244 min leer

TL;DR

Los Principios de IA de Google son un conjunto de siete principios que guían el desarrollo y el uso de tecnologías de inteligencia artificial (IA) de la empresa. Estos principios se basan en la creencia de que la IA debe ser socialmente beneficiosa y responsable.


Los principios de IA de Google son los siguientes:

  • La IA debe ser socialmente beneficiosa.

  • La IA debe evitar crear o reforzar un sesgo injusto.

  • La IA debe construirse y probarse para ser segura.

  • La IA debe ser responsable con las personas.

  • La IA debe incorporar principios de diseño de privacidad.

  • La IA debe mantener altos estándares de excelencia científica.

  • La IA debe estar disponible para usos que vayan de acuerdo con estos principios.

Los 7 principios (copia directa)

1. Ser socialmente beneficiosa.

El alcance amplificado de las nuevas tecnologías impacta cada vez más a la sociedad en general. Los avances en la IA tendrán impactos transformadores en una amplia gama de áreas, incluidas la atención médica, seguridad, energía, transporte, manufactura y entretenimiento. Al considerar el desarrollo y los usos potenciales de las tecnologías de inteligencia artificial, tomaremos en cuenta una amplia gama de factores sociales y económicos, y procederemos en los casos en los que creamos que los beneficios probables generales exceden sustancialmente los riesgos y las desventajas previsibles.

La IA también mejora nuestra capacidad de comprender el significado del contenido a escala. Nos esforzaremos para que la información precisa y de alta calidad esté disponible fácilmente usando IA, y seguiremos respetando las normas culturales, sociales y legales en los países donde operamos. Además, continuaremos evaluando de manera exhaustiva el momento adecuado para hacer que nuestras tecnologías estén disponibles de forma no comercial.

2. Evitar crear o reforzar un sesgo injusto.

Los algoritmos y conjuntos de datos de IA pueden reflejar, reforzar o reducir los sesgos injustos. Reconocemos que distinguir entre los sesgos justos e injustos no siempre es simple, además de que varían entre culturas y sociedades. Trataremos de evitar los efectos injustos en las personas, particularmente aquellos relacionados con características sensibles tales como raza, identidad étnica, género, nacionalidad, ingresos, orientación sexual, capacidad y creencias políticas o religiosas.

3. Estar construida y probada para ser segura.

Continuaremos desarrollando y aplicando estrictas prácticas de seguridad y protección para evitar resultados no intencionales que generan riesgos de daño. Diseñaremos nuestros sistemas de IA para que sean lo suficientemente cautelosos y trataremos de desarrollarlos de acuerdo con las mejores prácticas en la investigación de seguridad de la IA. En los casos apropiados, probaremos las tecnologías de IA en entornos controlados y supervisaremos su funcionamiento después de su implementación.

4. Ser responsables con las personas.

Diseñaremos sistemas de IA que brinden oportunidades adecuadas para la retroalimentación, explicaciones relevantes y que sean atractivos. Nuestras tecnologías de IA estarán sujetas a la apropiada dirección y control humano.

5. Incorporar principios de diseño de privacidad.

Incorporaremos nuestros principios de privacidad en el desarrollo y uso de nuestras tecnologías de IA. Ofreceremos la oportunidad de recibir aviso y otorgar consentimiento, alentaremos las arquitecturas con garantías de privacidad y brindaremos transparencia y controles sobre el uso de los datos.

6. Mantener altos estándares de excelencia científica.

La innovación tecnológica tiene sus raíces en el método científico y el compromiso con la investigación abierta, el rigor intelectual, la integridad y la colaboración. Las herramientas de IA tienen el potencial de desbloquear nuevos ámbitos de investigación científica y conocimiento en dominios clave como la biología, química, medicina y las ciencias naturales. Aspiramos a altos estándares de excelencia científica en la medida en que trabajamos para progresar en el desarrollo de IA.

Trabajaremos con un grupo de terceros para promover un liderazgo reflexivo en esta área, con un toque riguroso científico y multidisciplinario. También nos comprometemos a compartir el conocimiento de IA de manera responsable mediante la publicación de materiales educativos, mejores prácticas e investigaciones que permitan a más personas desarrollar aplicaciones de IA útiles.

7. Estar disponible para usos que vayan de acuerdo con estos principios.

Muchas tecnologías tienen múltiples usos. Trabajaremos para limitar las aplicaciones potencialmente dañinas o abusivas. A medida que desarrollamos y desplegamos tecnologías de inteligencia artificial, evaluaremos los usos probables tomando en cuenta los siguientes factores:

  • Propósito y uso principal: el propósito principal y el uso probable de una tecnología y aplicación, incluyendo qué tan estrecha es la relación de la solución o qué tan adaptable es a un uso dañino

  • Naturaleza y singularidad: si estamos haciendo tecnología que es única o disponible de manera general

  • Escala: si el uso de esta tecnología tendrá un impacto significativo

  • Naturaleza de la participación de Google: si estamos proporcionando herramientas de uso general, integrando herramientas para clientes o desarrollando soluciones a la medida

Aplicaciones de IA que no realizaremos

Adicional a los objetivos anteriormente compartidos, no diseñaremos o desplegaremos IA en las siguientes áreas de aplicación:

  1. Tecnologías que causan o pueden causar un daño general. Cuando exista un riesgo material de daño, procederemos sólo cuando consideremos que los beneficios superan sustancialmente los riesgos e incorporaremos las restricciones de seguridad apropiadas.

  2. Armas u otras tecnologías cuyo principal propósito o implementación es causar o facilitar de manera directa lesiones a las personas.

  3. Tecnologías que recopilan o usan información para la vigilancia que violan las normas internacionalmente aceptadas.

  4. Tecnologías cuyo propósito infringe principios de derecho internacional ampliamente aceptados y derechos humanos.


Conclusión (aquí se acaba la copia directa)

Los Principios de IA de Google son un marco importante para el desarrollo y el uso responsable de la IA. Esto implica prevenir sesgos, proteger la privacidad y establecer mecanismos de responsabilidad. Además, promueve la seguridad al prevenir usos maliciosos y garantizar la confiabilidad de los sistemas.

El mismo marco también fomenta la innovación, la equidad en el acceso a la IA y una transición justa en el mercado laboral. En esencia, este marco busca maximizar los beneficios de la IA para todos, al tiempo que minimiza los riesgos éticos, sociales y económicos.