Por Jason Nelson
3 min lectura
La firma de análisis de criptomonedas Elliptic está integrando inteligencia artificial (IA) en su conjunto de herramientas para rastrear transacciones en blockchain y manejar la detección de riesgos.
Utilizando el chatbot ChatGPT de OpenAI, la compañía dice que podrá organizar datos más rápido y en mayores cantidades. Sin embargo, ha implementado ciertas limitaciones de uso y no utiliza complementos de ChatGPT.
"Como organización de confianza de los bancos más grandes del mundo, reguladores, instituciones financieras, gobiernos y fuerzas del orden, es importante mantener nuestra inteligencia y datos seguros", dijo un portavoz de Elliptic a Decrypt. "Es por eso que no usamos ChatGPT para crear o modificar datos, buscar inteligencia o monitorear transacciones".
Lanzada en 2013, Elliptic proporciona a las instituciones y a las fuerzas del orden público investigaciones de análisis de blockchain para rastrear a los ciberdelincuentes y el cumplimiento normativo relacionado con las criptomonedas. En mayo, por ejemplo, Elliptic informó que varias empresas chinas que vendían los productos químicos para fabricar fentanilo aceptaban criptomonedas, incluido Bitcoin. La senadora estadounidense Elizabeth Warren utilizó el informe para pedir nuevamente regulaciones más estrictas sobre las criptomonedas.
Elliptic utilizará ChatGPT para complementar sus procesos de recopilación y organización de datos basados en humanos para aumentar los esfuerzos de su equipo, lo que, según dice, le permitirá duplicar la precisión y la escalabilidad. Al mismo tiempo, los grandes modelos de lenguaje (LLM) organizan los datos.
"Nuestros empleados aprovechan ChatGPT para mejorar nuestros conjuntos de datos y conocimientos", dijo el portavoz. "Seguimos y nos adherimos a una política de uso de IA y tenemos un sólido marco de validación de modelos".
Como Elliptic no está utilizando ChatGPT para generar información, la compañía dijo que no está preocupada por las "alucinaciones" de la IA o la información falsa. Las "alucinaciones" de la IA se refieren a casos en los que una IA genera resultados inesperados o falsos que no están respaldados por datos del mundo real.
Los chatbots de IA como ChatGPT han sido objeto de un mayor escrutinio por proporcionar información falsificada de manera convincente sobre personas, lugares y eventos. OpenAI ha intensificado los esfuerzos utilizando las matemáticas para abordar estas llamadas alucinaciones en el entrenamiento de sus modelos, calificándolo como un paso crítico hacia la construcción de una inteligencia artificial general alineada (AGI).
"Nuestros clientes vienen a nosotros para conocer exactamente su exposición al riesgo", dijo el CTO de Elliptic, Jackson Hull, en un comunicado. "La integración de ChatGPT nos permite escalar nuestra inteligencia, brindando a nuestros clientes una visión del riesgo que no pueden obtener en ningún otro lugar".
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.