OpenAI, Google, Microsoft y Meta llegan a un acuerdo para evaluar la IA

Technological Trends
OpenAI

Inspenet, 18 de noviembre 2023.

La Cumbre sobre Seguridad de la Inteligencia Artificial, que tuvo lugar la semana pasada en el Reino Unido, concluyó con el compromiso de las principales empresas tecnológicas tales como OpenAI, Google, Microsoft y Meta de colaborar estrechamente con los gobiernos en las futuras evaluaciones de sus nuevos modelos.

Este acuerdo tiene como objetivo mitigar los riesgos asociados con esta tecnología, que los países participantes han señalado como potencialmente catastróficos, según se indicó en una declaración conjunta.

El primer ministro británico, Rishi Sunak, resaltó que Estados Unidos, la Unión Europea y otros países se han comprometido con un selecto grupo de compañías a llevar a cabo pruebas exhaustivas de los modelos de Inteligencia Artificial, tanto antes como después de su lanzamiento público. Representantes de OpenAI, Anthropic, Google, Microsoft, Meta y xAI participaron en las sesiones de este jueves, donde se abordaron estos procesos de evaluación.

Con el propósito de avanzar en esta dirección, han solicitado a Yoshua Bengio, un destacado informático canadiense reconocido como uno de los líderes en inteligencia artificial, que encabece la elaboración de un informe sobre el «estado de la ciencia». Este reporte contribuirá a comprender las capacidades actuales de la tecnología y a priorizar los riesgos asociados.

«Hasta ahora, las únicas personas que han probado la seguridad de los nuevos modelos de IA han sido las mismas empresas que los desarrollan«, dijo Sunak en un comunicado.

El gobierno británico anunció que tanto empresas como gobiernos respaldan la creación de un nuevo centro global de pruebas que estará ubicado en el Reino Unido. Se destacó que se prestará una atención especial a los riesgos relacionados con la seguridad nacional y la sociedad.

Los riesgos de la Inteligencia Artificial

La vicepresidenta Kamala Harris, encabezando la delegación de Estados Unidos, expresó que las medidas de su gobierno deberían servir de inspiración e instrucción para otros países. Harris destacó que el enfoque principal debería centrarse en cómo la Inteligencia Artificial podría contribuir a la ampliación de las desigualdades tanto dentro de las sociedades como entre los países.

La funcionaria estadounidense ya había insistido en la necesidad de adoptar un «enfoque más práctico», que no se limite a evaluar los riesgos existenciales. «Hay amenazas adicionales que también exigen nuestra acción, amenazas que actualmente están causando daño«, dijo Harris.

La vicepresidenta señaló ejemplos concretos, como el caso de un anciano que canceló su plan de atención médica debido a un algoritmo de Inteligencia Artificial defectuoso y el de una mujer amenazada por una pareja abusiva mediante fotos modificadas. Harris hizo hincapié en la necesidad de abordar los problemas a lo largo de todo el espectro de amenazas, no solo enfocándose en riesgos existenciales como ciberataques masivos o armas biológicas.

Entre los peligros más comunes en el desarrollo de esta tecnología se encuentran la clonación de identidad, la conducción autónoma por Inteligencia Artificial y las campañas de desinformación. En respuesta, Harris anunció la creación de un nuevo instituto de seguridad de inteligencia artificial en Estados Unidos, centrado en establecer estándares para probar sistemas de uso público, en colaboración con el centro de pruebas en el Reino Unido anunciado por Sunak.

¡No te pierdas ninguna de nuestras publicaciones y síguenos en las redes sociales!

Inspenet: https://inspenet.com/

YouTube: https://www.youtube.com/@inspenet

LinkedIn: https://www.linkedin.com/company/inspenetnetwork

Facebook: https://www.facebook.com/inspenetnetwork

Instagram: https://www.instagram.com/inspenet/

Fuente y foto: https://hipertextual.com/2023/11/openai-google-microsoft-meta-llegan-acuerdo-que-cambiara-para-siempre-inteligencia-artificial

Comparte esta noticia en tus redes sociales

Valora esta publicación
1 estrella2 estrellas3 estrellas4 estrellas5 estrellas (Ninguna valoración todavía)
Cargando...