Europa establecerá el grupo de trabajo ChatGPT
El organismo que une a los organismos nacionales de vigilancia de la privacidad de Europa dijo el jueves que había creado un grupo de trabajo dedicado a ChatGPT.
"Cien palabras escuchadas no valen la pena ver", este proverbio puede que ya no sea exacto en materia de ciberseguridad ante la "amenaza" de los deepfake en el futuro, ya no podrás creer nada. ¡con mis propios ojos!
Recordando el concepto, deepfake es un programa que utiliza inteligencia artificial y permite a los usuarios intercambiar la cara de alguien en un vídeo con la cara de otra persona. De hecho, ayuda a los usuarios a crear contenido falso insertando rostros de personas famosas en el video con el fin de difamarlo o obtener ganancias ilegales. Esa es también la razón por la que los deepfake se han convertido en una de las principales amenazas para las empresas de entretenimiento, las celebridades y, sobre todo, la ciberseguridad.
Steve Grobman, director de tecnología de la empresa de ciberseguridad McAfee, y Celeste Fralick, una de las científicas de datos más importantes del mundo, emitieron la advertencia en un discurso de apertura en una conferencia de seguridad. RSA reveló recientemente que la tecnología Deepfake se ha vuelto mucho más sofisticada de lo que la humanidad piensa. y es verdaderamente una gran amenaza en el futuro. Para demostrarlo, estos dos científicos mostraron un video, que mostraba que las palabras de Celeste Fralick fueron dichas a partir de una imagen que se parecía al rostro de Steve Grobman, aunque Grobman aún no había dicho nunca esas palabras. Por lo tanto, se puede ver que los deepfake nos engañan fácilmente, por lo que en esta era, lo que vemos y oímos no es necesariamente exacto.
“Utilicé sus comentarios públicos para crear y entrenar un modelo de aprendizaje automático que me permitió desarrollar un video deepfake, con mis palabras saliendo de la boca de otra persona. Esta es solo una de las innumerables formas en que la IA y el aprendizaje automático pueden utilizarse con fines nefastos. Me hace pensar en el peor de los casos en el que los atacantes podrían utilizar la IA, cosas como la ingeniería social y el phishing, donde nuestros adversarios ahora podrían crear objetivos automáticos”, dijo Celeste Fralick.
De hecho, son los deepfake y la IA los que se han convertido en poderosos asistentes para ayudar a los piratas informáticos a crear ataques de phishing en línea personalizados y dirigidos con mayores tasas de éxito y que pueden llevarse a cabo con la escala de los ataques automatizados.
“Es justo decir que la mayoría de la gente no se da cuenta de lo peligrosos que pueden ser en realidad la IA y el aprendizaje automático, y la línea entre su uso para el bien o el mal es muy delgada. Hay un área técnica en la que mi equipo participa llamada aprendizaje automático adversarial. Allí llevamos a cabo investigaciones sobre las formas en que los malos actores pueden invadir o envenenar la jerarquía del aprendizaje automático”, añadió Celeste Fralick.
En una entrevista el lunes 4 de marzo, Steve Grobman dijo que él y Celeste Fralick pudieron crear videos deepfake en solo un fin de semana sin esforzarse en hacerlo perfecto. Esto demuestra que una vez que un atacante calificado de deepfake ha identificado un objetivo, crear videos fabricados sofisticados basados en IA no es nada difícil.
Una de las formas más comunes de engañar entre una persona real y un modelo generado por IA es tomar una foto casi real y luego cambiar una parte muy pequeña de los detalles de una manera que a menudo sería irreconocible para una persona promedio. . Fralick puso un ejemplo en el que la IA puede interpretar e interpretar una foto de un pingüino como una sartén, gracias a unas pocas pequeñas operaciones.
Lo que Celeste Fralick se pregunta aquí es si las mismas técnicas que se están utilizando para confundir a los clasificadores de imágenes todavía se pueden usar para confundirnos con sus modelos de red o no, específicamente aquí está el Falso Positivo (error de verificación falsa).
Hay varios tipos de falsos positivos; por ejemplo, algunos programas antispyware descuidados hacen que los usuarios piensen erróneamente que su computadora está siendo atacada por software espía, cuando en realidad no hay ningún problema. El término "falso positivo" también se puede utilizar cuando las aplicaciones antispyware legítimas se identifican erróneamente como amenazas. Hablando más sobre este tema, el profesor Steve Grobman dijo que los falsos positivos podrían tener consecuencias catastróficas. Un excelente ejemplo de esto fueron los aterradores 23 minutos del 26 de septiembre de 1983, en el punto álgido de las tensiones de la Guerra Fría. Varios centros de alerta internacionales, incluidos Estados Unidos y la Unión Soviética, emitieron advertencias a gran altura sobre un ataque relámpago que conmocionó al mundo, pero al final fue solo un error, realmente equivocado. En concreto, la parte soviética descubrió 5 misiles nucleares estadounidenses lanzados y dirigidos hacia su territorio, e inmediatamente emitió instrucciones para poner a todas las fuerzas armadas en estado de preparación para la guerra. Pero con las sirenas a todo volumen y las pantallas parpadeando, el teniente coronel Stanislav Petrov finalmente determinó que el incidente fue simplemente un mal funcionamiento del sistema informático. En concreto, Petrov argumentó que Estados Unidos no sería capaz de iniciar una guerra mundial lanzando sólo cinco misiles. Ignoró las instrucciones con las que había sido entrenado y con su intuición, el teniente coronel juzgó con precisión la situación, ayudando a prevenir una guerra nuclear.
“Resultó que la causa fundamental del incidente fue una rara alineación de la luz solar sobre las nubes altas creando efectos similares a los de un cohete. Así podemos ver cuán peligrosas pueden ser las consecuencias de la confusión en los sistemas informáticos, e incluso pueden provocar una guerra nuclear. ¿Qué hubiera pasado si la Unión Soviética hubiera lanzado misiles en respuesta inmediata? Y es importante que seamos conscientes del verdadero poder de la IA para resolver problemas, pero también será un arma de doble filo si está en manos de los malos que abundan en línea", compartió Steve Grobman.
Además, Grobman también dijo que siempre ha creído que la tecnología es esencialmente una herramienta inanimada y que puede aplicarse tanto para buenos como para malos propósitos. Por ejemplo, un mapa del crimen con datos sobre dónde ocurrió el crimen y dónde fue arrestado el perpetrador podría usarse para ayudar a la policía a resolver el crimen, o también podría ser usado por los propios criminales para evadir la persecución policial. En otro ejemplo, se utilizó un avión para bombardear a civiles, lo que provocó 2 millones de víctimas durante la Segunda Guerra Mundial. Cuando se le preguntó si se arrepentía de haber inventado el avión, Orville Wright dijo en 1948 que lo consideraba como si utilizara fuego, que podría causar daños enormes si se produjera un incendio, pero que aún se utilizaba para miles de propósitos importantes. Y también lo es la IA.
"La visión de Orville nos muestra que la tecnología es inherentemente moralmente irrelevante, sólo se puede decir que es beneficiosa o perjudicial dependiendo de cómo se utiliza. ¡Y esto es contra lo que nuestra industria, la ciberseguridad, lucha constantemente!"
El organismo que une a los organismos nacionales de vigilancia de la privacidad de Europa dijo el jueves que había creado un grupo de trabajo dedicado a ChatGPT.
Científicos daneses y estadounidenses han colaborado para desarrollar un sistema de inteligencia artificial llamado life2vec, capaz de predecir el momento de la muerte humana con gran precisión.
Un algoritmo de inteligencia artificial llamado Audioflow puede escuchar el sonido de la micción para identificar de manera efectiva y exitosa los flujos anormales y los correspondientes problemas de salud del paciente.
El envejecimiento y la disminución de la población de Japón han dejado al país sin un número significativo de trabajadores jóvenes, especialmente en el sector de servicios.
Un usuario de Reddit llamado u/LegalBeagle1966 es uno de los muchos usuarios enamorados de Claudia, una chica con apariencia de estrella de cine que a menudo comparte seductores selfies, incluso desnudos, en esta plataforma.
Microsoft acaba de anunciar que 12 empresas tecnológicas más participarán en su programa AI for Good.
El usuario @mortecouille92 ha puesto a trabajar el poder de la herramienta de diseño gráfico Midjourney y ha creado versiones excepcionalmente realistas de personajes famosos de Dragon Ball como Goku, Vegeta, Bulma y el anciano Kame. .
Con solo agregar algunas condiciones o configurar algunos escenarios, ChatGPT puede brindar respuestas más relevantes a sus consultas. Veamos algunas formas en que puede mejorar la calidad de sus respuestas de ChatGPT.
Midjourney es un sistema de inteligencia artificial que recientemente ha causado "fiebre" en la comunidad en línea y en el mundo de los artistas debido a sus pinturas extremadamente hermosas que no son inferiores a las de artistas reales.
Días después de que China anunciara el brote, con acceso a datos mundiales de ventas de billetes de avión, el sistema de inteligencia artificial de BlueDot siguió prediciendo con precisión la propagación del virus Wuhan Corona a Bangkok, Seúl, Taipei y Tokio.