Red De Noticias
Menú
  • Nacionales
    • Municipalidad
    • SDE
    • Politica
    • Noticias
    • Slider
    • Banco Central
    • opinión
    • Economía
    • Gobierno
    • Contenido Pago
  • Internacionales
    • Dominicanos Exterior
    • Turismo
    • Departamento de Estado
  • Tecnología
  • Deportes
  • Espectáculos
    • Sociales
    • Noticias Urbanas
  • Palabra Diaria
    • Recetas
  • Salud y vida
    • Salud Sexual
  • Visión Misión Objetivos
  • Marco Legal Jurídico 
  • Quienes Somos
  • Reconocimientos
  • Tarifas Publicitarias
Menú
ChatGPT y Copilot: hackers pueden acceder a los chats aunque estén cifrados

ChatGPT y Copilot: hackers pueden acceder a los chats aunque estén cifrados

Publicado el 24/03/2024

Loading

ChatGPT y Copilot: hackers pueden acceder a los chats aunque estén cifrados

Ciberdelincuentes son capaces de entrar y manipular los chatbots como Copilot y ChatGPT. (Imagen Ilustrativa Infobae)

Una reciente investigación llevada a cabo por el Offensive AI Lab ha desvelado vulnerabilidades significativas en la seguridad de los chatbots impulsados por Inteligencia Artificial (IA), como ChatGPT y Copilot.

A pesar de que estos servicios se consideraban protegidos por el cifrado de extremo a extremo, el estudio muestra que los ciberdelincuentes tienen la capacidad de interceptar y decodificar hasta el 55% de las conversaciones mantenidas a través de estos sistemas, empleando un método conocido como ataque de canal lateral.

Este descubrimiento pone en jaque la seguridad de la IA y la privacidad de los datos personales, instando a los usuarios a ser extremadamente cautelosos con la información que comparten.

ChatGPT es uno de los afectados por esta modalidad de ciberataque. (Foto: REUTERS)

ChatGPT es uno de los afectados por esta modalidad de ciberataque. (Foto: REUTERS)

Los ataques de canal lateral se fundamentan en recolectar datos derivados de la implementación física de los sistemas de chatbots, como el consumo de energía, los tiempos de procesamiento y la emisión de radiación electromagnética.

Estos datos, analizados por una inteligencia artificial desarrollada específicamente para este fin, son capaces de recrear conversaciones con una precisión sorprendente. Esto evidencia una debilidad en el cifrado de extremo a extremo, donde la longitud de los tokens puede ser explotada para revelar el contenido de los mensajes.

Por otro lado, se destaca que Gemini, la inteligencia artificial de Google, parece resistente a este tipo de ataques, según el centro de investigación, lo que abre una perspectiva optimista en cuanto a la seguridad en la comunicación a través de IA.

Cada uno debe ser consciente de no suministrar datos de origen privado a los chatbots (Foto: Pexels)

Cada uno debe ser consciente de no suministrar datos de origen privado a los chatbots (Foto: Pexels)

Para mitigar estas vulnerabilidades, los expertos sugieren entrenar a los modelos de IA para que sean más robustos frente a este tipo de ataques.

Esto quiere decir que se necesita implementar un proceso que incluye enseñar a los sistemas a convertir secuencias de tokens en texto legible de una forma que tome en cuenta el contexto de oraciones previamente generadas, limitando así las interpretaciones posibles y la incertidumbre.

Mientras compañías como OpenAI y Microsoft no desarrollen soluciones que corrijan estas vulnerabilidades, los usuarios se enfrentan a un riesgo constante cuando utilizan estos servicios para consultas personales o sensibles.

Nueva estafa utiliza la imagen de Crisitiano Ronaldo

0 seconds of 31 secondsVolume 10%

Hay varios videos alterados con IA de figuras públicas pidiendo dinero. (Foto: tomado de Instagram @losbroscol)

Ante esta situación, es recomendable que los usuarios de estos chatbots ejerzan la máxima prudencia y eviten compartir información personal delicada.

Las propias plataformas sugieren esta cautela al iniciar una conversación. La capacidad de adaptar estas tecnologías para asegurar la integridad de las comunicaciones es crucial para evitar futuras intrusiones y mantener la confianza de los usuarios en estos servicios innovadores.

También hay que estar prevenido de los diversos actos delictivos que están presentes en la actualidad que usan inteligencia artificial, como las imágenes alteradas o videos que están presente en las redes sociales de famosos que piden dinero que en realidad es totalmente falso, que no estpa exento a personas que crean que es verdad.

Pese a que existen riesgos, la IA también tiene beneficios para la humanidad. (Imagen Ilustrativa Infobae)

Pese a que existen riesgos, la IA también tiene beneficios para la humanidad. (Imagen Ilustrativa Infobae)

La seguridad en la era de la IA representa un desafío constante que exige una vigilancia y evolución continua. Este reciente hallazgo subraya la importancia de una colaboración más estrecha entre los desarrolladores de IA, expertos en seguridad y usuarios para crear un entorno digital más seguro.

Del mismo modo, la concienciación sobre estas vulnerabilidades y la implementación de medidas preventivas serán determinantes para proteger la privacidad de los usuarios y fortalecer la confianza en la tecnología de IA.

Esto debido a que cada día se integra más en las vidas cotidianas de distintas partes del mundo ofreciendo posibilidades antes inimaginables, pero también provocando nuevos riesgos a la privacidad e integridad física y emocional.

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Red de noticias Onlinerdn

Reddenoticias.online "Descubre el mundo a un clic de distancia con reddenoticias.online 🌐📰 Tu fuente confiable para noticias objetivas nacionales e internacionales. Información al instante, donde quieras y cuando quieras. ¡Conéctate con la actualidad en un solo lugar! 🚀 #ReddeNoticias #InformaciónGlobal"

Sobre RDN

Reddenoticias.online

No somos un periódico de moda , somos un referente de mercado a un Clic del Planeta tierra desde republica dominican

Contact

  • Josefa Diaz | ventas | RD
  • Phone: (849-656-5405
  • Email: reddenoticias01@gmail.com
  • Reddenoticias_@gmail.com
©2026 Red De Noticias | Theme by SuperbThemes