viernes, octubre 11, 2024
spot_imgspot_img

Top 5 This Week

spot_img

Related Posts

Un hacker robó secretos de OpenAI, lo que genera temores de que China también pueda hacerlo

A principios del año pasado, un hacker obtuvo acceso a los sistemas de mensajería internos de OpenAI, el creador de ChatGPT, y robó detalles sobre el diseño de las tecnologías de IA de la empresa.

El pirata informático obtuvo detalles de las discusiones en un foro en línea donde los empleados hablaban sobre las últimas tecnologías de OpenAI, según dos personas con conocimiento del incidente, pero no pudo acceder a los sistemas donde la empresa aloja y construye su inteligencia artificial.

Los ejecutivos de OpenAI revelaron el incidente a los empleados durante una reunión general en las oficinas de la compañía en San Francisco en abril de 2023 e informaron a su junta directiva, según las dos personas, que discutieron la información confidencial sobre la compañía bajo condición de anonimato.

Pero los ejecutivos decidieron no compartir la información públicamente porque no se había robado ninguna información de clientes o socios, dijeron las dos personas. Los líderes no vieron el incidente como una amenaza a la seguridad nacional porque creían que el hacker era un individuo sin vínculos conocidos con ningún gobierno extranjero. La empresa no notificó al FBI ni a ninguna otra agencia policial.

Para algunos empleados de OpenAI, la noticia ha generado temores de que adversarios extranjeros como China puedan robar tecnología de IA que, si bien hoy en día está destinada principalmente al trabajo y la investigación, en última instancia podría poner en peligro la seguridad nacional de los Estados Unidos. También planteó dudas sobre la seriedad con la que OpenAI trataba la seguridad y expuso divisiones dentro de la empresa sobre los riesgos relacionados con la inteligencia artificial.

Después de la infracción, Leopold Aschenbrenner, director del programa técnico de OpenAI responsable de garantizar que las futuras tecnologías de IA no causen daños graves, envió un memorando a la junta directiva de OpenAI, diciendo que la empresa no estaba haciendo lo suficiente para evitar que el gobierno chino y otros extranjeros adversarios roben sus secretos.

Leopold Aschenbrenner, ex investigador de OpenAI, aludió a la violación de seguridad en un podcast el mes pasado y reiteró sus preocupaciones.Crédito…a través de YouTube

Aschenbrenner dijo que OpenAI lo despidió esta primavera por filtrar otra información fuera de la empresa y argumentó que su despido tuvo motivaciones políticas. Aludió a la infracción en un podcast reciente, pero los detalles del incidente no se han informado previamente. Dijo que la seguridad de OpenAI no era lo suficientemente fuerte como para proteger contra el robo de secretos clave si actores extranjeros se infiltraran en la empresa.

«Entendemos las preocupaciones que Leopold planteó mientras trabajaba en OpenAI, y esto no llevó a su salida», dijo la portavoz de OpenAI, Liz Bourgeois. Refiriéndose a los esfuerzos de la compañía para crear inteligencia artificial general, una máquina capaz de hacer cualquier cosa que el cerebro humano pueda hacer, agregó: «Si bien compartimos su compromiso de crear inteligencia artificial general segura, no estamos en desacuerdo con muchas de las declaraciones que ha hecho desde entonces sobre nuestro trabajo. Esto incluye sus caracterizaciones de nuestra seguridad, incluido este incidente, que abordamos y compartimos con nuestra junta directiva antes de que se uniera a la empresa. »

Los temores de que el hackeo de una empresa tecnológica estadounidense pueda tener vínculos con China no son descabellados. El mes pasado, el presidente de Microsoft, Brad Smith, testificó en el Capitolio sobre cómo los piratas informáticos chinos utilizaron los sistemas del gigante tecnológico para lanzar un ataque a gran escala contra las redes del gobierno federal.

Sin embargo, según las leyes federales y de California, OpenAI no puede impedir que las personas trabajen en la empresa en función de su nacionalidad, y los investigadores de políticas han dicho que excluir el talento extranjero de los proyectos estadounidenses podría obstaculizar significativamente el progreso de la IA en Estados Unidos.

«Necesitamos las mentes más brillantes para trabajar en esta tecnología», dijo Matt Knight, director de seguridad de OpenAI, al New York Times en una entrevista. «Esto conlleva algunos riesgos y debemos determinar cuáles son». »

(El Times demandó a OpenAI y su socio, Microsoft, alegando infracción de derechos de autor sobre contenido de noticias relacionado con sistemas de inteligencia artificial).

OpenAI no es la única empresa que construye sistemas cada vez más potentes utilizando tecnología de IA en constante evolución. Algunos de ellos, en particular Meta, propietario de Facebook e Instagram, comparten libremente sus diseños con el resto del mundo como software de código abierto. Creen que los peligros que plantean las tecnologías de inteligencia artificial actuales son mínimos y que compartir códigos permite a los ingenieros e investigadores de la industria identificar y solucionar problemas.

Los sistemas de inteligencia artificial actuales pueden ayudar a difundir información falsa en línea, incluso en forma de texto, imágenes fijas y, cada vez más, vídeos. También están empezando a eliminar algunos puestos de trabajo.

Empresas como OpenAI y sus rivales Anthropic y Google están agregando salvaguardias a sus aplicaciones de IA antes de entregarlas a individuos y empresas, con la esperanza de evitar que las personas utilicen las aplicaciones para difundir información errónea o causar otros problemas.

Pero no hay mucha evidencia de que las tecnologías actuales de IA representen un riesgo significativo para la seguridad nacional. Los estudios realizados por OpenAI, Anthropic y otros durante el año pasado han demostrado que la IA no es significativamente más peligrosa que los motores de búsqueda. Daniela Amodei, cofundadora de Anthropic y presidenta de la compañía, dijo que su última tecnología de inteligencia artificial no representaría un riesgo importante si sus diseños fueran robados o compartidos libremente con otros.

“Si alguien más lo poseyera, ¿podría ser extremadamente perjudicial para una gran parte de la sociedad? Nuestra respuesta es «no, probablemente no», dijo a The Times el mes pasado. “¿Podría esto acelerar el proceso para un mal actor en el futuro? Puede ser. Es realmente especulativo. »

Sin embargo, los investigadores y ejecutivos de tecnología han temido durante mucho tiempo que la IA algún día podría permitir la creación de nuevas armas biológicas o ayudar a penetrar los sistemas informáticos gubernamentales. Algunos incluso piensan que podría destruir a la humanidad.

Varias empresas, incluidas OpenAI y Anthropic, ya han comenzado a bloquear sus operaciones técnicas. OpenAI creó recientemente un comité de seguridad para estudiar cómo gestionar los riesgos que plantean las tecnologías futuras. El comité incluye a Paul Nakasone, un ex general del ejército que dirigió la Agencia de Seguridad Nacional y el Comando Cibernético. También fue nombrado miembro de la junta directiva de OpenAI.

«Comenzamos a invertir en seguridad mucho antes de ChatGPT», dijo Knight. “Buscamos no sólo comprender y anticipar los riesgos, sino también fortalecer nuestra resiliencia. »

Los funcionarios federales y los legisladores estatales también están presionando para que las regulaciones gubernamentales prohíban a las empresas comercializar ciertas tecnologías de inteligencia artificial y las multen con millones de dólares si sus tecnologías causan daño. Pero los expertos dicen que esos peligros no se materializarán hasta dentro de años, si no décadas.

Las empresas chinas están construyendo sus propios sistemas que son casi tan poderosos como los principales sistemas estadounidenses. Según algunos indicadores, China ha eclipsado a Estados Unidos como principal productor de talentos en IA, y el país genera casi la mitad de los principales investigadores de IA del mundo.

«No es una locura pensar que China pronto estará por delante de Estados Unidos», dijo Clément Delangue, director ejecutivo de Hugging Face, una empresa que alberga muchos proyectos de inteligencia artificial de código abierto en todo el mundo.

Algunos investigadores y funcionarios de seguridad nacional dicen que los algoritmos matemáticos en el corazón de los sistemas de inteligencia artificial actuales, si bien no son peligrosos hoy en día, podrían volverse peligrosos y exigen controles más estrictos en los laboratorios de inteligencia artificial.

«Incluso si los peores escenarios son relativamente improbables, si tienen un alto impacto, es nuestra responsabilidad tomarlos en serio», dijo Susan Rice, ex asesora de política interna del presidente Biden y ex asesora del gobierno nacional del presidente Barack Obama. política de seguridad en un evento en Silicon Valley el mes pasado. “No creo que sea ciencia ficción, como a muchos les gusta afirmar. »

Popular Articles