CIENCIA Y TECNOLOGÍA

Aparecen nuevas estafas con ChatGPT, tips para protegerse de ellas

Actualmente, ChatGPT se ha convertido en una herramienta de gran utilidad para miles de cibernautas que necesitan elaborar resúmenes, traducir textos, generar composiciones escritas o resolver todo tipo de dudas.

Sin embargo, la IA del chatbot también representa un importante aliado para los cibercriminales, quienes están empleando la plataforma para perfeccionar sus estafas y así elevar la efectividad del engaño.

Debido a que ChatGPT puede producir textos con una alta calidad similar a de un ser humano, los estafadores han generado correos, mensajes y otros contenidos maliciosos que son altamente creíbles.

Lea también:
Descubren misteriosa "anomalía" cerca de pirámides de Guiza

Sin embargo, expertos en ciberseguridad advierten que aún existen medios para poder detectar una estafa, pese a que esta haya sido producida con la ayuda de una inteligencia artificial como la que posee ChatGPT.

¿Cuáles son las estafas con ChatGPT más peligrosas del momento?

De acuerdo con expertos de Norton, empresa especializada en ciberseguridad, pese a que OpenAI, creador de ChatGPT, garantiza que su chatbot posee varias medidas de seguridad para impedir que su IA sea usada con fines negativos, los criminales han logrado burlar ciertas restricciones.

Estos son algunos de los ciberataques o estafas que se ejecutan con ayuda de ChatGPT:

  • Los ciberdelincuentes usan técnicas de engaño para lograr que los usuarios entreguen información confidencial, como contraseñas o detalles de tarjetas de crédito. Con la IA se puede crear un correo electrónico suplantando un banco o marca reconocida, que sea más creíble al no tener errores de ortografía o gramática.
  • Con el chatbot los criminales pueden producir programas maliciosos (malware) más eficientes y en menor tiempo. Solo se necesita tener conocimientos básicos en un lenguaje de programación y la IA hará todo.
  • ChatGPT puede ayudar a generar una identidad falsa que será usada en línea para estafar a usuarios de redes sociales o aplicaciones de citas. Generalmente, estas estafas usan tácticas de ingeniería social, pero con la IA los criminales pueden crear conversaciones más realistas o incluso para hacerse pasar por personas específicas.
  • Gracias a las capacidades del chatbot de OpenAI, los ciberdelincuentes pueden generar informaciones falsas en muy poco tiempo, solo basta que determinen un tema que popularidad para luego producir y divulgar textos con datos imprecisos, declaraciones mentirosas y otros elementos.

Cómo protegerse de las estafas con ChatGPT

A continuación algunas prácticas de ciberseguridad para mantenerse seguro de los ciberataques con ChatGPT:

  • Evitar compartir información confidencial como datos personales o claves bancarias en una conversación con ChatGPT
  • Siempre usar contraseñas seguras y únicas para cada servicio digital (Netflix, redes sociales, email) que se tenga
  • Cambiar periódicamente las contraseñas para mantener las cuentas seguras
  • Mantenerse informado. Estar actualizado sobre los últimos problemas de seguridad de inteligencia artificial y estafas en línea relacionadas. El conocimiento es poder cuando se trata de ciberseguridad
  • Activar el factor de doble autenticación en todos los servicios digitales que cuenten con esa opción, de esa manera los criminales no podrán secuestrar la cuenta del usuario aunque hayan obtenido la clave de acceso
  • Utilizar un software antivirus capaz de detectar y eliminar de inmediato cualquier programa malicioso que haya infectado un dispositivo

FUENTE: SEMANA

,
LOGO EL REGIONAL DEL ZULIA - BOTON PRINCIPAL

Suscríbete a nuestro boletín

Reciba nuestro resumen con las noticias más importantes directo a su buzón.