¿Es seguro ChatGPT? Problemas y fiabilidad | Blog Súmate

13 de abril de 2023

Escrito por Cristina Gómez

El pasado 31 de marzo una noticia revolucionaba el mundo tecnológico: Italia bloqueaba temporalmente ChatGPT, el popular sistema de inteligencia artificial desarrollado por Open AI. ¿El motivo? La probable compilación ilegal de datos personales de los usuarios por parte de la compañía. La sentencia señalaba que Open AI no cumplía el Reglamento General de Protección de Datos de la Unión Europea, destacando que carecía de “una base jurídica adecuada en relación con la recopilación de datos personales y su tratamiento con fines de formación de los algoritmos subyacentes al funcionamiento de ChatGPT”.

La decisión de la autoridad italiana llegaba pocos días después de que más de 1.000 expertos del sector tecnológico, entre los que se encontraban reconocidas figuras como Elon Musk, Steve Wozniak o Yoshua Bengio, firmaran un documento en el que solicitaban frenar temporalmente el desarrollo de las herramientas de inteligencia artificial más pujantes, ya que la falta de control en su desarrollo podría suponer “un riesgo para la sociedad y la humanidad”.

Estas dos informaciones han dado más vigor aún a una pregunta que sobrevuela entre pensadores, autoridades y ciudadanos desde hace meses: ¿es seguro ChatGPT?

¿Puede pensar por sí mismo ChatGPT?

Recientemente analizábamos qué es GPT-3 y sus posibilidades de revolucionar la creación de contenidos. Su sencillez de uso, su gratuidad, su sofisticación y su capacidad de adoptar un modelo de conversación humana, ha hecho que millones de personas quieran experimentar sus posibilidades. Pero una vez superadas la fascinación y la curiosidad de los primeros días no ha tardado en surgir la desconfianza sobre la fiabilidad de sus respuestas y la constatación de flagrantes inexactitudes en algunas de ellas.

A mediados del mes de marzo, la compañía propietaria de la IA, Open AI, lanzaba una nueva versión llamada Chat GPT-4, un modelo mejorado, más potente y con el que se puede trabajar también con imágenes. No cabe duda de que los progresos han sido considerables, pero sigue estando lejos de ser esa “máquina perfecta” que algunos esperaban.

Y es que tales expectativas chocan de frente con la realidad. No conviene olvidar que estamos hablando de un sistema conversacional, sin capacidad de razonar por sí mismo. Eso provoca que su fiabilidad esté en entredicho. En este sentido, estos son algunos de los principales problemas que hemos podido constatar:

  • No comprende el lenguaje humano en toda su complejidad. Pese a que parece capaz de mantener una conversación de forma más o menos natural, lo cierto es que la IA genera respuestas que se basan en patrones estadísticos a partir de los millones de datos con los que trabaja, no en un razonamiento propio. Su comprensión de lo que escribe es inexistente.
  • Sus datos no siempre son veraces. A partir de su aprendizaje, es habitual que presente datos incorrectos o directamente inventados. Las confusiones sobre referencias, fechas o nombres concretos son constantes. Puede ser un apoyo en temas generales, pero nunca una fuente completamente confiable. Cualquier información que recibamos debe ser comprobada por otros canales especializados.
  • Presenta sesgos discriminatorios. ChatGPT se alimenta de los textos que han generado anteriormente los seres humanos y no es capaz de identificar totalmente si estos presentan algún tipo de sesgo. Al trabajar de una forma estadística y a partir de una cantidad desmesurada de datos, es probable que sus respuestas, en ocasiones, presenten un cariz discriminatorio, proveniente de sus fuentes de referencia.

Cuáles son los principales problemas de seguridad de ChatGPT

Vemos que la dudas sobre la fiabilidad de ChatGPT se extienden como la espuma. Pero no solo eso, sino que también lo hacen los recelos sobre su seguridad y legalidad. Además de los gobiernos, crecen las empresas que ponen coto a su uso por parte de los trabajadores. Un reciente artículo en el diario La Vanguardia destacaba que algunas de las mayores compañías financieras de Europa y Estados Unidos, como Citygroup, Bank of America, Goldman Sachs o Deutsche Bank, han decidido resolver de forma tajante las dudas sobre si es seguro ChatGPT y dejar de utilizarlo.

En España, el importante bufete de abogados Cuatrecasas ha prohibido su uso. ¿Por qué? Lo responde en el mismo artículo Alejandro Payá, socio de la compañía: “La protección de datos no está garantizada a la hora de realizar una consulta sobre un caso confidencial”. Y va más allá, “Open IA se reserva el derecho a utilizar los datos que se aporten a esta aplicación”, señala.

Precisamente, las dudas sobre la protección de datos son uno de los puntos críticos en la desconfianza que despierta ChatGPT. Pero no es el único aspecto relacionado con la seguridad que está sobre la mesa.

Proliferación de fake news

Un reciente estudio desarrollado por investigadores de la Universidad de Georgetown, en Estados Unidos, señalaba que la desinformación es hoy uno de los principales riesgos vinculados al uso de modelos de lenguaje de inteligencia artificial como ChatGPT. Las respuestas que ofrece esta IA dependen de la cantidad, calidad y fiabilidad de los datos sobre los que se entrena el modelo.

En caso de que los datos previos sean sesgados o directamente falsos, los chatbots podrán generar respuestas que alienten teorías de la conspiración o fake news y que respondan a intereses políticos o económicos concretos. Y aún más, con estos sistemas la desinformación es mucho más fácil y barata de producir, utilizando una sintaxis correcta y creíble, lo que complica su identificación.

Ataques de phishing

ChatGPT es capaz de suplantar el estilo de lenguaje humano de forma prácticamente perfecta. Esto provoca que pueda ser utilizado por los ciberdelincuentes para, por ejemplo, generar un correo electrónico que parezca que ha sido redactado por un compañero de trabajo o por una empresa que nos ofrece servicios. Tal credibilidad favorece que la víctima caiga en la trampa y brinde los datos sensibles que se solicitan.

Para alertar de este peligro, Europol emitió un comunicado a finales del mes de marzo en el que advertía del uso delictivo que ya se estaba haciendo del chatbot. La agencia europea de la seguridad destacaba también que “ChatGPT se puede usar para aprender sobre una gran cantidad de posibles áreas criminales sin conocimiento previo, que van desde cómo entrar a una casa, hasta terrorismo o cibercrimen”, entre otros.

Filtración de información confidencial

Una de las causas por las que no es seguro ChatGPT parte de una mala praxis por parte de los mismos usuarios. Puede darse el caso de que estos ofrezcan datos confidenciales o sensibles de una compañía, que sean incorporados al corpus de conocimiento de la IA y difundidos posteriormente, con el consiguiente riesgo para la seguridad de la empresa.

Uno de los casos más habituales llega cuando un empleado realiza alguna pregunta vinculada a la mejora de un producto o servicio de la empresa, aportando de modo inconsciente al chatbot datos que son confidenciales. También puede ocurrir cuando se le pide a GPT que revise presentaciones para optimizarlas, que descubra posibles errores en un código o modifique campañas de marketing o publicidad que aún no han sido lanzadas. Los datos presentes en esos documentos o softwares son recopilados por la inteligencia artificial, que puede usarlos cuando otro usuario haga una consulta.

Doxing personal y corporativo

Las herramientas de inteligencia artificial disponen de la información que los individuos dejamos en nuestras interacciones por Internet. El doxing consiste en revelar datos de la víctima (que pueden ir desde el nombre, la dirección, el teléfono, información profesional o financiera, entre otros) sin su consentimiento.

Con esta práctica es posible perjudicar la imagen personal y profesional del individuo a partir de la información recabada con la ayuda de ChatGPT. Cuando se centra en socavar la imagen de representantes determinados de las empresas, revelando informaciones que pueden resultar embarazosas, se da el caso, incluso, de que esto repercuta en los resultados financieros de las compañías en la que trabajan.

Creación de malware

ChatGPT es también capaz de crear código en distintos lenguajes de programación. Es evidente que esto puede ayudar a ahorrar tiempo y mejorar la productividad en las empresas. Pero, utilizado con fines dañinos, permite también generar códigos maliciosos que pueda ser utilizado para atacar a usuarios de Internet.

El desarrollo de tecnologías como la inteligencia artificial puede ser de gran ayuda para tu empresa, pero es importante conocer los posibles problemas y brechas de seguridad vinculados a ella. Si sigues planteándote si es seguro usar ChatGPT en tu día a día, no lo dudes: la mejor forma de evitar estos riesgos es trabajar con especialistas. En Súmate sabemos cómo utilizar las tecnologías más avanzadas de una forma fiable y con la mayor protección. Contacta con nosotros y te ayudaremos a conseguir tus objetivos, utilizando las herramientas más adecuadas y seguras en función de tus necesidades. ¡Te estamos esperando!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Por Cristina Gómez

Tu privacidad es importante para nosotros. Súmate utiliza la información que proporcionas para ponerse en contacto contigo en relación con contenido, productos y servicios relevantes para ti. Puedes darte de baja para dejar de recibir este tipo de comunicaciones en cualquier momento. Si deseas obtener más información sobre la protección de tus datos en HubSpot, consulta nuestra Política de Privacidad.