Contexto técnico
Me encantan estos temas porque van directos a la práctica: la gente discute sobre modales y yo pienso inmediatamente en la automatización con IA, la latencia y la estabilidad del pipeline. El motivo fue un hilo en X sobre una idea simple: es mejor ser cortés con la IA. Suena bien, pero en ingeniería solo me importa una cosa: ¿realmente mejora el resultado o no?
Investigué estudios recientes y el panorama resultó ser irregular, no romántico. En modelos más antiguos como GPT-3.5, una cortesía moderada a menudo ayudaba: las respuestas eran más precisas, claras y a veces con menos sesgos. Pero con sistemas más nuevos, incluido ChatGPT-4o, ya han aparecido resultados donde un tono directo o incluso brusco mostró mayor precisión en las pruebas.
Ahí es donde me detuve. Significa que no se trata de la "cortesía" en sí, sino de qué modo de respuesta activa un modelo específico. Una pila de tecnología interpreta una frase cortés como una señal para una respuesta más detallada, mientras que otra, por el contrario, se vuelve demasiado prolija y pierde precisión.
Otro detalle importante: la cortesía excesiva casi siempre infla la respuesta. Si estoy construyendo una integración de IA para soporte, ventas o búsqueda interna, no necesito un flujo de "por favor, tenga la amabilidad de". Necesito un formato predecible, menos tokens basura y un control de estilo adecuado.
Por lo tanto, mi conclusión es simple: la cortesía no es un truco universal. Es un parámetro del marco del prompt que debe probarse igual que la temperatura, el prompt del sistema y el esquema de salida. Sin mediciones, es solo folklore.
Qué cambia esto para los negocios y la automatización
Si tienes una conversación única, la diferencia puede ser casi imperceptible. Pero cuando implemento la automatización con IA en producción, pequeños detalles como el tono del prompt se convierten en coste, velocidad y tasa de errores.
Ganan los equipos que realizan pruebas A/B con sus prompts en lugar de creer en los consejos de las redes sociales. Pierden aquellos que integran en su flujo de trabajo un "sé lo más cortés y amigable posible" y luego se sorprenden con respuestas infladas, tokens extra y una caída en la precisión.
En Nahornyi AI Lab, resolvemos este tipo de problemas a nivel de sistema, no basándonos en memes sobre hablar con robots. Si el desarrollo de tu solución de IA se ve frenado por la calidad de las respuestas o una automatización inestable, podemos verificar rápidamente dónde está interfiriendo el tono del prompt y construir un esquema más fiable junto con Vadym Nahornyi y Nahornyi AI Lab.