Históricamente, los abogados han tenido problemas con algunas herramientas basadas en IA
Rudy DeFelice Colaborador
Rudy es cofundador y director general de Laboratorios de propulsión Keesal, una empresa de transformación digital que presta servicios a los departamentos jurídicos de Fortune 500. Rudy es abogado, emprendedor tecnológico, orador de TEDx y autor de best-sellers. Es alumno de la Escuela de Negocios de Harvard y de la Facultad de Derecho de la Universidad de Connecticut.
No es necesario profundizar demasiado en las organizaciones legales para encontrar personas escépticas acerca de la inteligencia artificial.
La IA está recibiendo una gran atención y un importante capital de riesgo, pero las herramientas de IA con frecuencia resultan decepcionantes en las trincheras. Estas son algunas de las razones por las que es así y por las que creo que GPT-3, una versión beta de la cual OpenAI Foundation lanzó recientemente, podría cambiar las reglas del juego en organizaciones legales y otras organizaciones centradas en el conocimiento.
GPT-3 está recibiendo mucho oxígeno últimamente debido a su tamaño, alcance y capacidades. Sin embargo, debe reconocerse que gran parte de esa atención se debe a su asociación con Elon Musk. La Fundación OpenAI que creó GPT-3 fue fundada por los grandes bateadores Musk y Sam Altman y cuenta con el apoyo de Mark Benioff, Peter Thiel y Microsoft, entre otros. Arthur C. Clarke observó una vez que las grandes innovaciones ocurren después de que todos dejan de reírse.
Musk ha hecho que el mundo deje de reírse en tantas áreas ambiciosas que el mundo se inclina a darle una segunda mirada a un proyecto en el que ha tenido una mano. GPT-3 se está beneficiando de ese foco de atención. Sugiero, sin embargo, que la atención podría estar justificada por sus méritos.
¿Por qué algunas herramientas basadas en IA han tenido problemas en la profesión legal y cómo GPT-3 podría ser diferente?
1. No todos los problemas son un clavo
Se dice que cuando eres un martillo, todo problema es un clavo. Las redes y los algoritmos que impulsan la IA son bastante buenos para establecer correlaciones entre enormes conjuntos de datos que no serían obvios para los humanos. Uno de mis ejemplos favoritos de esto es una IA de suscripción de préstamos que determinó que el nivel de carga de la batería de su teléfono en el momento de la solicitud se correlaciona con su riesgo de suscripción. ¿Quién sabe por qué es eso? Un humano no habría supuesto esa conexión. Esas cosas no están relacionadas racionalmente, solo están relacionadas estadísticamente.
Source link