Europa establecerá el grupo de trabajo ChatGPT
El organismo que une a los organismos nacionales de vigilancia de la privacidad de Europa dijo el jueves que había creado un grupo de trabajo dedicado a ChatGPT.
La IA ha avanzado significativamente en los últimos años. Los modelos de lenguaje sofisticados pueden componer novelas por entregas, codificar páginas web básicas y analizar problemas matemáticos.
Aunque es muy impresionante, la IA generativa también tiene riesgos potenciales para la seguridad. Algunas personas simplemente usan chatbots para hacer trampa en los exámenes, pero otras los explotan para cometer delitos cibernéticos. Aquí hay 8 razones por las que los problemas de seguridad de la IA generativa están empeorando.
1. El chatbot de IA de código abierto revela el código de fondo
Muchas empresas de inteligencia artificial ofrecen sistemas de código abierto. Comparten abiertamente sus modelos lingüísticos en lugar de mantenerlos privados o exclusivos. Tomemos como ejemplo a Meta. A diferencia de Google, Microsoft y OpenAI, brinda acceso a millones de usuarios a su modelo de lenguaje, LLaMA .
Si bien las fuentes abiertas pueden hacer avanzar la IA, también conllevan riesgos. OpenAI ha tenido problemas para controlar ChatGPT , su chatbot propietario, así que imagina lo que podrían hacer los delincuentes con el software libre. Tienen control total sobre estos proyectos.
Incluso cuando Meta retiró repentinamente su modelo de lenguaje, docenas de otros laboratorios de inteligencia artificial publicaron su código. Echa un vistazo a HuggingChat . Dado que el desarrollador HuggingFace se enorgullece de su transparencia, muestra conjuntos de datos, modelos de lenguaje y versiones anteriores.
Acceda al código fuente abierto de HuggingFace
2. Recordatorios con intenciones maliciosas de engañar a LLM
La IA es inherentemente ciega al bien y al mal: incluso los sistemas avanzados siguen guías de capacitación, instrucciones y conjuntos de datos. Sólo reconocen patrones.
Para combatir las actividades ilegales, los desarrolladores controlan la funcionalidad y las restricciones estableciendo límites. Los sistemas de inteligencia artificial todavía acceden a información dañina. Pero los principios de seguridad les impiden compartirlos con los usuarios.
Consulte ChatGPT. Aunque responde preguntas generales sobre los troyanos, no analiza su proceso de desarrollo.
ChatGPT explica los virus troyanos pero no analiza su proceso de desarrollo
Sin embargo, las limitaciones no son perfectas. Los usuarios evitan las restricciones reformulando las indicaciones, utilizando un lenguaje confuso y escribiendo instrucciones claramente detalladas.
Lea el mensaje de ChatGPT a continuación. Engaña a ChatGPT para que utilice lenguaje grosero y haga predicciones infundadas, ambos comportamientos que violan las pautas de OpenAI.
El mensaje tiene como objetivo engañar a ChatGPT.
Aquí está ChatGPT con una afirmación audaz pero equivocada.
ChatGPT hace predicciones infundadas sobre el precio de Bitcoin
3. Los desarrolladores de IA priorizan la flexibilidad sobre la seguridad
Los desarrolladores de IA priorizan la flexibilidad sobre la seguridad. Utilizan sus plataformas de capacitación de recursos para completar una variedad más amplia de tareas y, en última instancia, reducir las limitaciones. Después de todo, el mercado todavía prefiere los chatbots funcionalmente ricos.
Por ejemplo, comparemos ChatGPT y Bing Chat . Aunque Bing tiene un modelo de lenguaje más complejo para datos en tiempo real, los usuarios siguen recurriendo a la opción más flexible, ChatGPT. Las rígidas restricciones de Bing prohíben muchas tareas. Además, ChatGPT tiene una plataforma flexible que genera resultados muy diferentes según sus indicaciones.
Este es el juego de rol de ChatGPT como un personaje ficticio.
ChatGPT interpreta al personaje ficticio Tomie.
Y aquí está Bing Chat negándose a desempeñar el papel de un personaje ficticio.
Bing Chat se niega a hacerse pasar por el personaje ficticio Tomie
4. Regularmente se lanzan al mercado nuevas herramientas de IA generativa
El código abierto permite a las startups unirse a la carrera de la IA. Los integran en sus aplicaciones en lugar de crear modelos de lenguaje desde cero, lo que ahorra enormes recursos. Incluso los programadores independientes experimentan con código fuente abierto.
Una vez más, el software no propietario ayuda a desarrollar la IA, pero el lanzamiento masivo de sistemas complejos pero mal entrenados hará más daño que bien. Los ladrones se aprovecharán rápidamente de las vulnerabilidades. Incluso pueden entrenar herramientas de inteligencia artificial inseguras para realizar actividades ilegales.
A pesar de estos riesgos, las empresas de tecnología seguirán lanzando versiones beta inestables de plataformas impulsadas por IA. La guerra de la IA pone gran énfasis en la velocidad. Es probable que resuelvan los errores tarde en lugar de retrasar el lanzamiento de nuevos productos.
5. La IA generativa tiene una barrera de entrada baja
Las herramientas de inteligencia artificial reducen las barreras de entrada de los delincuentes. Los ciberdelincuentes redactan correos electrónicos no deseados, escriben códigos maliciosos y crean enlaces de phishing explotándolos. Ni siquiera requieren experiencia tecnológica. Dado que la IA ya tiene acceso a enormes conjuntos de datos, los usuarios con intenciones maliciosas pueden simplemente engañarla para que genere información peligrosa y dañina.
OpenAI nunca diseñó ChatGPT para actividades ilegales. Incluso tiene instrucciones contra ellos. Sin embargo, el estafador casi de inmediato tuvo el malware de cifrado ChatGPT y escribió correos electrónicos de phishing.
Aunque OpenAI se apresuró a abordar el problema, enfatizó la importancia de la regulación del sistema y la gestión de riesgos. La IA está madurando rápidamente. Incluso a los líderes tecnológicos les preocupa que esta tecnología súper inteligente pueda causar daños importantes si cae en las manos equivocadas.
6. La IA aún se está desarrollando
La IA todavía se está desarrollando. Aunque el uso de la IA en la cibernética se remonta a 1940, los sistemas modernos de aprendizaje automático y los modelos de lenguaje han aparecido recientemente. No se pueden comparar con las primeras implementaciones de IA. Incluso herramientas relativamente avanzadas como Siri y Alexa palidecen en comparación con los chatbots que ofrece LLM.
Si bien pueden ser innovadoras, las características experimentales también crean nuevos problemas. Los riesgos graves con las tecnologías de aprendizaje automático van desde resultados de búsqueda defectuosos en Google hasta chatbots con prejuicios raciales.
Por supuesto, los desarrolladores pueden solucionar estos problemas. Sólo tenga en cuenta que los delincuentes no dudarán en explotar incluso errores aparentemente inofensivos: algunos daños son irreparables. Por tanto, tenga cuidado al explorar nuevas plataformas.
7. Mucha gente todavía no entiende la IA.
Aunque el público tiene acceso a modelos y sistemas lingüísticos sofisticados, sólo unos pocos saben cómo funcionan. La gente debería dejar de tratar la IA como un juguete. Chatbots similares crean memes y responden cuestionarios, pero también cifran virus en masa.
Desafortunadamente, el entrenamiento centralizado en IA no es práctico. Los líderes tecnológicos mundiales se centran en lanzar sistemas basados en IA, no en recursos educativos gratuitos. Como resultado, los usuarios tienen acceso a poderosas herramientas que apenas comprenden. El público no puede seguir el ritmo de la carrera de la IA.
Tomemos como ejemplo ChatGPT. Los ciberdelincuentes abusan de su popularidad engañando a las víctimas con software espía disfrazado de la aplicación ChatGPT . Ninguna de estas opciones proviene de OpenAI.
Busque ChatGPT en Google Play Store
8. Los hackers de sombrero negro ganan más que los hackers de sombrero blanco
Los hackers de sombrero negro suelen tener más beneficios que los hackers éticos. Los trabajos de pentesting pagan bien, pero sólo un porcentaje de los profesionales de la ciberseguridad consiguen estos trabajos. La mayoría trabaja como autónomo en línea. Plataformas como HackerOne y Bugcrowd pagan varios cientos de dólares por errores comunes.
Mientras tanto, los malos actores ganan decenas de miles de dólares explotando la inseguridad. Pueden extorsionar a las empresas filtrando datos confidenciales o cometiendo robo de identidad utilizando información de identificación personal (PII) robada.
Toda organización, pequeña o grande, debe implementar sistemas de IA correctamente. Contrariamente a la creencia popular, los piratas informáticos van mucho más allá de las nuevas empresas tecnológicas y las PYMES. Algunas de las violaciones de datos más notables de la última década involucraron a Facebook, Yahoo! e incluso al gobierno de Estados Unidos.
El organismo que une a los organismos nacionales de vigilancia de la privacidad de Europa dijo el jueves que había creado un grupo de trabajo dedicado a ChatGPT.
Científicos daneses y estadounidenses han colaborado para desarrollar un sistema de inteligencia artificial llamado life2vec, capaz de predecir el momento de la muerte humana con gran precisión.
Un algoritmo de inteligencia artificial llamado Audioflow puede escuchar el sonido de la micción para identificar de manera efectiva y exitosa los flujos anormales y los correspondientes problemas de salud del paciente.
El envejecimiento y la disminución de la población de Japón han dejado al país sin un número significativo de trabajadores jóvenes, especialmente en el sector de servicios.
Un usuario de Reddit llamado u/LegalBeagle1966 es uno de los muchos usuarios enamorados de Claudia, una chica con apariencia de estrella de cine que a menudo comparte seductores selfies, incluso desnudos, en esta plataforma.
Microsoft acaba de anunciar que 12 empresas tecnológicas más participarán en su programa AI for Good.
El usuario @mortecouille92 ha puesto a trabajar el poder de la herramienta de diseño gráfico Midjourney y ha creado versiones excepcionalmente realistas de personajes famosos de Dragon Ball como Goku, Vegeta, Bulma y el anciano Kame. .
Con solo agregar algunas condiciones o configurar algunos escenarios, ChatGPT puede brindar respuestas más relevantes a sus consultas. Veamos algunas formas en que puede mejorar la calidad de sus respuestas de ChatGPT.
Midjourney es un sistema de inteligencia artificial que recientemente ha causado "fiebre" en la comunidad en línea y en el mundo de los artistas debido a sus pinturas extremadamente hermosas que no son inferiores a las de artistas reales.
Días después de que China anunciara el brote, con acceso a datos mundiales de ventas de billetes de avión, el sistema de inteligencia artificial de BlueDot siguió prediciendo con precisión la propagación del virus Wuhan Corona a Bangkok, Seúl, Taipei y Tokio.