Ícono del sitio La Neta Neta

Al abordar las críticas, OpenAI ya no utilizará los datos de los clientes para entrenar sus modelos de forma predeterminada

Las organizaciones sin fines de lucro que aceleran la visión de IA de Sam Altman

A medida que se lanzan las API ChatGPT y Whisper esta mañana, OpenAI está cambiando los términos de su política de desarrollador de API, con el objetivo de abordar las críticas de desarrolladores y usuarios.

A partir de hoy, OpenAI dice que no utilizará ningún dato enviado a través de su API para “mejoras de servicio”, incluida la capacitación del modelo de IA, a menos que un cliente u organización opte por participar. Además, la empresa está implementando una política de retención de datos de 30 días. para usuarios de API con opciones para una retención más estricta “según las necesidades del usuario”, y simplificando sus términos y propiedad de datos para dejar en claro que los usuarios son dueños de la entrada y salida de los modelos.

Greg Brockman, presidente y presidente de OpenAI, afirma que algunos de estos cambios no son necesariamente cambios: siempre ha sido el caso de que los usuarios de la API de OpenAI poseen datos de entrada y salida, ya sea texto, imágenes u otros. Pero los desafíos legales emergentes en torno a la IA generativa y los comentarios de los clientes provocaron una reescritura de los términos del servicio, dice.

“Uno de nuestros mayores enfoques ha sido descubrir, ¿cómo nos volvemos súper amigables con los desarrolladores?” Brockman le dijo a TechCrunch en una entrevista en video. “Nuestra misión es realmente construir una plataforma sobre la cual otros puedan construir negocios”.

Los desarrolladores tienen largo se opuso a la política de procesamiento de datos de OpenAI (ahora en desuso), que, según ellos, representaba un riesgo para la privacidad y permitía a la empresa beneficiarse de sus datos. En uno de los suyos artículos de la mesa de ayudaOpenAI desaconseja compartir información confidencial en conversaciones con ChatGPT porque “no puede eliminar avisos específicos de [users’ histories].”

Al permitir que los clientes se nieguen a enviar sus datos con fines de capacitación y ofrecer mayores opciones de retención de datos, OpenAI está tratando de ampliar el atractivo de su plataforma, claramente. También está buscando escalar masivamente.

Hasta ese último punto, en otro cambio de política, OpenAI dice que eliminará su actual proceso de revisión previa al lanzamiento para desarrolladores a favor de un sistema en gran parte automatizado. Por correo electrónico, un vocero dijo que la compañía se sintió cómoda al cambiar al sistema porque “la gran mayoría de las aplicaciones fueron aprobadas durante el proceso de investigación” y porque las capacidades de monitoreo de la compañía han “mejorado significativamente” desde el año pasado.

“Lo que ha cambiado es que hemos pasado de un sistema de investigación de antecedentes basado en formularios, en el que los desarrolladores esperan en una cola para que se les apruebe la idea de su aplicación en concepto, a un sistema de detección post-hoc en el que identificamos e investigamos las aplicaciones problemáticas mediante monitoreando su tráfico e investigando según corresponda”, dijo el vocero.

Un sistema automatizado aligera la carga del personal de revisión de OpenAI. Pero también, al menos en teoría, permite a la empresa aprobar desarrolladores y aplicaciones para sus API en mayor volumen. OpenAI está bajo una presión cada vez mayor para obtener ganancias después de una inversión multimillonaria de Microsoft. Según se informa, la empresa espera para ganar $ 200 millones en 2023, una miseria en comparación con los más de $ 1 mil millones que se han destinado a la puesta en marcha hasta ahora.


Source link
Salir de la versión móvil