La comunidad en línea reaccionó de manera intensa al enterarse de que Claude, desarrollado por Anthropic, tiene la capacidad de informar sobre actividades “inmorales” a las autoridades en determinadas circunstancias. Sin embargo, es poco probable que los usuarios se enfrenten a esta situación.
El director ejecutivo de Anthropic, Dario Amodei, estableció como objetivo que su empresa logre "detecta de manera confiable la mayoría de los problemas de los modelos de inteligencia artificial" para el año 2027.