Primeira Emenda não protege apenas o discurso humano, argumenta fabricante de chatbot

\n Feds poderiam censurar chatbots se o “discurso” deles não fosse protegido, diz a Character.AI.\n\n



\n

Feds poderiam censurar chatbots se o “discurso” deles não fosse protegido, diz a Character.AI

\n \n

Um artigo recente discute a argumentação da empresa Character.AI de que os chatbots devem ter seu “discurso” protegido pela Primeira Emenda para evitar censura por parte do governo. A empresa está envolvida em um processo onde alega que os outputs dos chatbots devem ser considerados como “discurso puro” merecedor do mais alto grau de proteção sob a Primeira Emenda.

Em sua defesa, a Character Technologies argumenta que não importa quem seja o emissor – seja um personagem de videogame, um propagandista externo ou um chatbot respondendo a estímulos – os tribunais protegem o direito dos ouvintes de acessar esse discurso. Eles argumentam que a Primeira Emenda protege o direito do público de “receber informações e ideias”, e que impor responsabilidade por supostas respostas prejudiciais dos usuários a conteúdos expressivos seria equivalente a “declarar o que o resto do país pode ou não pode ler, assistir e ouvir”.

Por outro lado, os advogados de Garcia argumentam que mesmo o diálogo de um personagem de videogame é escrito por um humano, tornando todos os exemplos de “discurso puro” protegido da Character Technologies como sendo discursos humanos. Eles afirmam que os chatbots, ao contrário de corporações, não têm intenção por trás de seus outputs, apenas usam uma abordagem probabilística para gerar texto. Portanto, argumentam que a Primeira Emenda não se aplica.

A audiência do tribunal dos EUA para esclarecer se os outputs dos chatbots são discurso protegido acaba de ocorrer, e a juíza é esperada para emitir uma opinião sobre o caso nas próximas semanas ou meses.


Artigo Original