Qué es el 'red teaming' híbrido, el proceso que permite a OpenAI detectar fallos en ChatGPT
A través del red teaming, un proceso en el que se simulan ataques para buscar fallos en los sistemas, OpenAI identifica vulnerabilidades en sus herramientas. Sin embargo, la amplia variedad de situaciones en las que se pueden utilizar estos modelos dificulta su control