Tankbr: Parabéns pelo cast! Extremamente relevante e necessário. Foi muito acertado focar no uso de IA apenas para arte, sob risco de dispersar a atenção em muitas frentes.
É importante reconhecer que a IA é uma ferramenta. Não é uma entidade autônoma. Não é um ser. Trata-se de um sistema computacional que depende de comandos humanos para operar -- um instrumento para ampliar capacidades de ação, análise e decisão. Portanto, a IA não é responsável pelos resultados de seu uso. Alguém a programou, alguém a acionou, alguém definiu seus parâmetros.
E como estamos tratando de imagens, precisamos falar de um dos "ícones" (com o perdão do trocadilho), o Photoshop. Hoje, seu site anuncia "Aproveite o poder da IA generativa no Photoshop". Mas surge a dúvida: quem usa o Photoshop hoje está "usando IA" pela primeira vez, ou a IA já estava lá, só não era nomeada como tal?
Desde sua criação, o Photoshop digitalizou ferramentas analógicas: pincel, lápis, aerógrafo, carimbo, lâmina; e técnicas inspiradas em revelação fotográfica. O software se apresentava como uma ponte entre o design gráfico tradicional e o ambiente digital, apelando à familiaridade visual e à continuidade conceitual, conectando passado e presente em uma interface coerente e acessível.
Aqui, destaco o termo "acessível". Antes do Photoshop, produzir uma arte gráfica exigia recursos caros (tintas, películas, revelação química) e tempo. A ferramenta digitalizou esse processo, reduzindo custos e tempo, e democratizou a criação. Não à toa, artistas que antes dependiam de estúdios físicos passaram a trabalhar de forma independente. E outros tantos que nunca teriam oportunidade de trabalhar nesses ambientes encontraram seu espaço em suas próprias máquinas. É inegável a popularização (e maior acessibilidade) da ferramenta.
Assim como o Photoshop tornou processos artísticos caros e lentos mais democráticos, a IA pode ser vista como o próximo passo nessa cadeia -- mas isso não a torna autônoma. A questão é: ferramentas definem o valor da arte? Mike Deodato, citado no cast, seria mais artista se usasse pincéis físicos em vez de tablets? Ou o que importa é sua intenção criativa, independentemente do meio? Será que, se déssemos todas as ferramentas analógicas, ele seria capaz de produzir as imagens pelas quais é conhecido? E, se sim, em quanto tempo conseguiria realizar essa proeza?
Num passado não muito distante, apresentações profissionais eram feitas com cartolina, colagens e canetas hidrocor -- um processo demorado e suscetível a erros irreversíveis. Com o PowerPoint, até mesmo usuários sem formação em design e com habilidades manuais sofríveis podiam criar slides com cliparts e layouts básicos. Hoje, a IA permite gerar elementos visuais complexos com alguns prompts. Cada salto tecnológico tornou a criação mais acessível, mas também levantou debates similares: "Isso é arte?" ou "Isso desvaloriza o trabalho manual?". A cartolina, assim como o Photoshop ou a IA, é apenas um degrau nessa escada de inovações -- e o "status" artístico depende menos da ferramenta e mais da intenção de quem a usa.
Falemos de transparência: o artista precisa declarar as ferramentas ou técnicas que usou? Cada imagem vai ter uma fichinha: "óleo sobre tela", "aquarela sobre papel", "gravura em metal", "colagem sobre papel", "Lightroom sobre RAW", "Photoshop sobre JPEG", "CorelDRAW sobre Vetor", "Illustrator sobre SVG". Para uma exposição, faz sentido. Mas faz sentido a obrigação? Precisamos "rotular" arte feita com IA? Se sim, até que ponto? Afinal, não exigimos que designers listem cada filtro do Photoshop em suas obras.
A questão ética é um ponto mais delicado. A metodologia do aprendizado de máquina hoje consome uma quantidade gigantesca de informação, e isso tem alguns problemas muito bem apontados pelo Leandro Zombie -- como o viés e a discriminação, já que reproduz os mesmos vieses e dados existentes (racismo, sexismo, estereótipos etc.) -- e o fato de serem treinadas com obras protegidas por direitos autorais, como apontado pelo gambiarrabg.
No que se refere ao primeiro problema, a solução é relativamente mais "fácil" de ser resolvida por meio de treinamento (daí a necessidade de uma miríade de relatórios para apontar resultados inaceitáveis). Já o segundo é muito mais difícil, porque fez parte do aprendizado que criou a IA. Retirar os dados implica, necessariamente, em treinar novamente o modelo.
Ainda há outros problemas éticos relacionados à IA: Desinformação; Impacto ambiental; Transparência e explicabilidade da tomada de decisão; Privacidade e consentimento; Responsabilidade legal etc.
Na história, muitas barreiras éticas foram ultrapassadas por muitas bandeiras. Daqui para frente, até podemos tentar criar mecanismos para proteção dos mais vulneráveis. Talvez a questão mais urgente seja reconhecê-los.
Dito tudo isso. Até ontem eu pensava que a ferramenta é neutra. E que dependia exclusivamente de quem a usava. Até que me apresentaram o livro "Colonialismo Digital: por uma Crítica Hacker-fanoniana" que mostra que não há ferramentas neutras. Elas reproduzem hierarquias. O que se reveste de democratização e acessibilidade deve ser questionado: quem controla a tecnologia? qual o custo humano? Afinal, como já dissemos: ferramentas não definem a arte, mas podem definir quem lucra com ela.