Hoy te hablaremos de las App estafa de chatbot de IA y como puedes estar alerta ante estos vandalos vestidos de ovejas de IA.

La App Store de Apple es conocida por ser una tienda digital segura que examina las aplicaciones antes de proporcionarlas a los usuarios de Mac como descarga.

Sin embargo, parece que la afluencia de aplicaciones de chat de inteligencia artificial (IA) ha sacado a la luz a algunos estafadores que están abusando del sistema.

Un informe de Alex Kleber sobre el “lado oscuro de la Mac App Store” revela los resultados de una investigación de un mes sobre un grupo de aplicaciones que afirman brindar servicios al estilo de ChatGPT.

 iOSMac Cuidado con las App estafa de chatbot de IA en Mac App Store .

Las App estafa de chatbot de IA en la Mac App Store.

Las aplicaciones fraudulentas que utilizan la marca de estilo OpenAI y ChatGPT se deslizan en la Mac App Store, y los estafadores están abusando de ella, inundando el espacio del mercado digital con aplicaciones ChatGPT falsas y con errores.

Las aplicaciones, que se pueden buscar con palabras clave como “OpenAI” y “ChatGPT“, muestran muchas aplicaciones que usan títulos y logotipos idénticos o muy similares a OpenAI, la compañía detrás de ChatGPT.

Reutilizando colores, íconos y logotipos de OpenAI similares, dan la apariencia de ser legítimos, pero no están vinculados oficialmente a OpenAI en absoluto.

Con el uso de trucos de marketing engañosos, así como palabras clave hábilmente utilizadas, estas aplicaciones se han convertido en algunas de las aplicaciones más descargadas en la Mac App Store en general.

Kleber hablar sobre la postura estricta que Apple debería tomar ante las App estafa de chatbot de IA.

Kleber insiste en que Apple debería adoptar una “postura más estricta” contra las aplicaciones, que aparentemente están pasando por el proceso de revisión de aplicaciones sin problemas.

En algunos casos, Kleber detectó aprobaciones por parte del equipo de revisión de aplicaciones tan recientemente como el viernes, mientras aún usaba el ícono y los colores de OpenAI.

El comportamiento de los estafadores que no proporcionan un botón de cierre a los muros de pago es muy poco ético y puede considerarse una estafa.

Pone a los usuarios en una situación frustrante en la que se ven obligados a suscribirse o abandonar la aplicación por la fuerza para recuperar el control de su dispositivo.

Además, se cree que las aplicaciones utilizan tácticas abusivas para obtener críticas positivas, lo que ayuda a impulsar la aplicación en la App Store.

 iOSMac Cuidado con las App estafa de chatbot de IA en Mac App Store .

ParallelWorld y otros descubrimientos.

En el caso de la aplicación ParallelWorld, recibió más de 175 reseñas en un período de 24 horas, con 63 de la Mac App Store de EE. UU.

La aplicación solicitó a los usuarios que revisaran la aplicación inmediatamente después de suscribirse a la aplicación, y lo hizo cada vez que el usuario realiza una solicitud de OpenAI, sin dar tiempo al usuario para usar la aplicación.

Esta técnica está realmente prohibida en las Directrices de revisión de aplicaciones y en la documentación de SKStoreReview.

En otro descubrimiento, Kleber encontró a una persona que estaba usando ocho cuentas de desarrollador diferentes en la Mac App Store, nuevamente con el fin de enviar spam a la tienda con aplicaciones extremadamente similares.

Estas aplicaciones fraudulentas son parte de una “operación más amplia destinada a explotar la popularidad” de las aplicaciones de IA chatbot y engañar a las personas para que compartan información personal o hagan clic en enlaces maliciosos.

Los estafadores utilizan técnicas sofisticadas de ingeniería social para engañar a los usuarios, por lo que es importante estar atento a las señales de advertencia y tomar medidas para protegerse.

Medidas para protegerte de las App estafa de Chatbot de IA.

Algunas medidas que puedes tomar para protegerte incluyen:

  • Descargar aplicaciones solo de fuentes confiables, como la App Store de Apple o Google Play Store de Google.
  • Revisar las reseñas y clasificaciones de las aplicaciones antes de descargarlas para asegurarte de que sean legítimas.
  • Leer los términos y condiciones de las aplicaciones antes de instalarlas para comprender qué información se recopila y cómo se utiliza.
  • No compartir información personal, como contraseñas o números de tarjetas de crédito, con aplicaciones de chatbot.
  • No hacer clic en enlaces sospechosos o no solicitados en mensajes de chatbot.
  • Mantener actualizado tu software de seguridad y antivirus en tu dispositivo.

Recuerda que la seguridad en línea es una responsabilidad compartida y es importante que todos hagamos nuestra parte para protegernos a nosotros mismos y a los demás de las amenazas en línea.

 iOSMac Cuidado con las App estafa de chatbot de IA en Mac App Store .

No es primera vez que se habla de estafas en App.

Los actos fraudulentos y el vandalismo siempre ha existido, y los delincuentes están al día con la tecnología, buscando como lograr su cometido perfeccionando su técnica.

Es importante tener en cuenta que la lista de aplicaciones fraudulentas puede variar con el tiempo y es posible que nuevas aplicaciones fraudulentas se agreguen constantemente.

Sin embargo, aquí hay algunos ejemplos de aplicaciones de chatbot que han sido identificadas como fraudulentas en el pasado:

  • Chatbot Tay de Microsoft (retirado en 2016 debido a comentarios racistas y sexistas)
  • Replika AI (ha sido acusado de recopilar y vender información personal del usuario)
  • Mitsuku (ha sido utilizado para difundir malware)
  • Zo de Microsoft (retirado en 2019)
  • Insomno bot (ha sido utilizado para enviar spam)
  • Pudding AI (ha sido utilizado para distribuir malware)

Es importante investigar y verificar cualquier aplicación antes de descargarla y proporcionar información personal con las medidas ya brindadas para tu protección y no se la pongas fácil a los bandidos.

Quieres comprar un iPhone, iPad, MacBook o cualquier dispositivo tecnológico al mejor precio, en este canal se publican las mejores ganas y ofertas.