Por Jason Nelson
3 min lectura
El miércoles, OpenAI anunció una nueva función en ChatGPT que permite a los usuarios conectar registros médicos y datos de bienestar, lo que genera preocupaciones entre algunos expertos y grupos de defensa sobre el uso de datos personales.
El gigante de IA con sede en San Francisco, California, señaló que la herramienta, denominada ChatGPT Health, desarrollada con médicos, está diseñada para apoyar la atención en lugar de diagnosticar o tratar dolencias. La empresa la está posicionando como una forma de ayudar a los usuarios a comprender mejor su salud.
Para muchos usuarios, ChatGPT ya se ha convertido en la plataforma de referencia para preguntas sobre atención médica y salud mental.
OpenAI dijo a Decrypt que ChatGPT Health solo comparte "información de salud factual" general y no proporciona "consejos médicos personalizados o inseguros".
Para preguntas de mayor riesgo, proporcionará información de alto nivel, señalará riesgos potenciales y animará a las personas a hablar con un farmacéutico o proveedor de atención médica que conozca su situación específica.
La medida se produce poco después de que la empresa reportara en octubre que más de 1 millón de usuarios discuten sobre suicidio con el chatbot cada semana. Eso representaba aproximadamente el 0,15% de todos los usuarios de ChatGPT en ese momento.
Si bien esas cifras representan una porción relativamente pequeña de la población total de usuarios, la mayoría necesitará abordar las preocupaciones de seguridad y privacidad de datos, según afirman los expertos.
"Incluso cuando las empresas afirman tener salvaguardas de privacidad, los consumidores a menudo carecen de consentimiento significativo, transparencia o control sobre cómo se usan, retienen o reutilizan sus datos", afirmó a Decrypt J.B. Branch, defensor de responsabilidad de grandes tecnológicas de Public Citizen. "Los datos de salud son excepcionalmente sensibles, y sin límites legales claros y supervisión ejecutable, las salvaguardas auto-reguladas simplemente no son suficientes para proteger a las personas del mal uso, re-identificación o daño posterior".
OpenAI señaló en su declaración que los datos de salud en ChatGPT Health están encriptados de forma predeterminada, almacenados por separado de otros chats y no se utilizan para entrenar sus modelos fundamentales.
Según Andrew Crawford, asesor senior de políticas del Center for Democracy and Technology, muchos usuarios asumen erróneamente que los datos de salud están protegidos según su sensibilidad, en lugar de según quién los posee.
"Cuando tus datos de salud son retenidos por tu médico o tu compañía de seguros, se aplican las reglas de privacidad de HIPAA", afirmó Crawford a Decrypt. "Lo mismo no es cierto para entidades no cubiertas por HIPAA, como desarrolladores de aplicaciones de salud, rastreadores de salud portátiles o empresas de IA".
Crawford agregó que el lanzamiento de ChatGPT Health también subraya cómo la carga de responsabilidad recae sobre los consumidores en ausencia de una ley federal integral de privacidad que regule los datos de salud en manos de empresas tecnológicas.
"Es lamentable que nuestras actuales leyes y regulaciones federales coloquen esa carga sobre los consumidores individuales para que analicen si se sienten cómodos con la forma en que la tecnología que usan todos los días maneja y comparte sus datos", señaló.
OpenAI dijo que ChatGPT Health se implementará primero para un pequeño grupo de usuarios.
La lista de espera está abierta para usuarios de ChatGPT fuera de la Unión Europea y el Reino Unido, con un acceso más amplio planificado en las próximas semanas en web e iOS. El anuncio de OpenAI no mencionó dispositivos Google o Android.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.