A integração de tecnologias digitais no universo esportivo é uma realidade consolidada, com softwares de análise de desempenho e monitoramento biométrico sendo práticas comuns. Contudo, a popularização de ferramentas de inteligência artificial generativa, como o ChatGPT, intensificou o debate sobre seus limites éticos e funcionais. Nesse contexto, a controvérsia envolvendo o treinador Robert Moreno e sua passagem pelo FC Sochi ganhou notoriedade. Alegações, negadas pelo técnico, apontam para um uso excessivo de IA na orientação de decisões logísticas, de planejamento e até mesmo desportivas, suscitando questionamentos sobre o papel da tecnologia na função de treinador.
A inteligência artificial tem se firmado como um poderoso instrumento de apoio, processando vastos volumes de dados para otimizar desempenho, prevenir lesões e aprimorar análises táticas. Todavia, a IA carece de sensibilidade contextual e da compreensão das dinâmicas humanas — emocionais, culturais e psicológicas — que são intrínsecas ao esporte. Quando a tecnologia deixa de ser auxiliar para ocupar uma posição central na tomada de decisões, emerge o risco de esvaziamento da autonomia técnica do treinador, cuja função, juridicamente regulada, implica um complexo de direitos e deveres.
O caso do técnico espanhol ilustra essa tensão. Relatos da imprensa, baseados em declarações de ex-dirigentes do clube russo, indicam que Moreno teria recorrido à IA para elaborar planos logísticos e esportivos, incluindo uma sugestão de cronograma de viagem que implicaria 28 horas de vigília para os atletas. Independentemente da veracidade das acusações, o episódio evidencia como a dependência de ferramentas automatizadas pode comprometer o exercício responsável da função técnica.
A delegação excessiva de decisões a sistemas automatizados pode ser interpretada como uma abdicação da responsabilidade profissional, com sérias consequências. Decisões puramente algorítmicas podem desconsiderar o estado emocional de um atleta, o contexto competitivo e as relações interpessoais, resultando em queda de desempenho e perda de confiança na liderança.
Sob a ótica jurídica, a conduta do treinador é balizada por deveres de zelo, ética, responsabilidade técnica e cumprimento contratual, conforme prevê a legislação brasileira. A utilização da IA não mitiga, nem afasta, os deveres jurídicos decorrentes da relação de emprego, como a diligência e a boa-fé. A delegação indiscriminada de tarefas a um sistema automatizado pode caracterizar violação a deveres contratuais.
No âmbito do Direito do Trabalho, o uso acrítico da IA que comprometa a qualidade do serviço ou coloque em risco a saúde dos atletas pode configurar falta grave, apta a ensejar a rescisão do contrato por justa causa, nos termos do artigo 482 da CLT, especialmente por desídia ou mau procedimento. Não é juridicamente sustentável a alegação de excludente de responsabilidade, pois a decisão final permanece sob o controle e a incumbência do profissional. O uso reiterado de decisões automatizadas sem supervisão adequada pode ser visto como comportamento negligente, rompendo a fidúcia essencial ao vínculo empregatício. A tecnologia deve servir ao profissional, e não o contrário, exigindo criticidade e supervisão humana permanente para que a inovação caminhe alinhada à responsabilidade.
Source link
