Aplicaciones fraudulentas se hacen pasar por ChatGPT en celulares

0
38

Redacción

Con el aumento de popularidad de la inteligencia sintética ChatGPT y la integración de esta en diferentes plataformas, se ha generado un problema que puede poner en riesgo la seguridad de los usuarios en cyber net. En las tiendas virtuales de Android y Apple han aparecido aplicaciones que se hacen pasar por versiones de esta herramienta.

A diferencia de las aplicaciones que incluyen inteligencia sintética entre sus funciones renovadas, estas simulan ser una edición de ChatGPT para celulares, aunque oficialmente OpenAI no haya trabajado en ninguna de ellas.

Ni en Google Play Retailer ni en App Retailer el nombre del desarrollador se identifica como la compañía oficial creadora del chatbot.

Según el analista de ciberseguridad, Alex Kleber, estas plataformas tienen el objetivo de promocionarse como ChatGPT para ganar la confianza de los usuarios para usar un sistema de micro pagos que prometen desbloquear una serie de funciones que, finalmente, no llegan a cumplirse en los dispositivos .

Te puede interesar: Invoice Gates dijo que en 18 meses los chats de inteligencia sintética empezarán a enseñarle a los niños una encuesta
Kleber indica que uno de los métodos más comunes de la plataforma para promocionarse en la App Retailer es que se solicita al usuario una evaluación de la aplicación a los pocos minutos de descargarse, lo que manipula la calificación staunch que tiene esta aplicación.

Para encontrar estas plataformas solo se debe introducir las palabras “OpenAI” o “ChatGPT” en el buscador de cualquiera de estas tiendas.

Los resultados tendrán en común el uso de colores e incluso logotipos similares a los que usamos ChatGPT en su versión de púrpura con la intención de confundir a los usuarios. En ocasiones se verán imágenes promocionales que indicarán la implementación de GPT-4 (la inteligencia sintética más reciente desarrollada por OpenAI).

En el caso de App Retailer, las aplicaciones llegan a compartir desarrolladores como en el caso de las empresas “Pixelsbay” y “ParallelWorld” ubicadas en Pakistán, según el informe de Kleber.

Además, es posible que si se analiza el código de programación de estas plataformas se encuentren similitudes de hasta el 99%. Es decir que se permitió la publicación y difusión de dos aplicaciones que en realidad son casi la misma.

A diferencia, por ejemplo, de la aplicación del buscador Bing cuyo nombre aparece junto al de Microsoft, su empresa creadora, el resto de plataformas son desarrolladas por compañías que previamente crearon juegos para celulares o aplicaciones como linternas o calculadoras.

Aunque el analista de ciberseguridad equivalente haya establecido malas prácticas en App Retailer, lo cierto es que en la tienda de aplicaciones de Android se presentan casos en las que algunas aplicaciones utilizan nombres similares a OpenAI o ChatGPT para promocionar sus servicios. Sin embargo, nuevamente ninguna de estas plataformas fue desarrollada por la compañía not unique.

Una forma de determinar si estas plataformas podrían ser peligrosas o podrían poner en riesgo la privacidad del usuario es revisando la sección Seguridad de datos, ubicada en los de la plataforma.

Muchas de ellas, por ejemplo, indican que si bien no recopilan información del dispositivo en el que son instalados, pueden compartir datos con terceros. Otros que pueden aparecer en esta búsqueda, indican que aún cuando no recopilan datos ni los comparten, no permiten que la información pueda eliminarse.

En el caso de Inquire of AI, una de las aplicaciones de este estilo más inteligente, se indica que puede recoger información sobre el dispositivo, el rendimiento de la plataforma e incluso estadísticas sobre la actividad del usuario durante el uso del programa.

El cargo Aplicaciones fraudulentas se hacen pasar por ChatGPT en celulares apareció primero en Reporte 30 MX , El medio digital de México.

https://ift.tt/Wtv3oJD