Problemas na criação de arte via IA
Com o sucesso da Lensa, o aplicativo de selfie com inteligência artificial do Prisma Labs que se tornou viral, você pode esperar muitos aplicativos também nesse sentido. E espere que eles também sejam capazes de serem enganados para criar imagens NSFW — imagens inapropriadas para o trabalho, geralmente relacionada à conteúdo de nudez — e sexualizar desproporcionalmente e alterar a aparência das mulheres, uma tentativa de minimizar possíveis utilizações inadequadas da ferramenta, mais do que já acontece. Maximilian Gahntz, um pesquisador sênior de políticas da Mozilla Foundation, disse esperar que a integração da IA que cria coisas na tecnologia de consumo amplie os efeitos de desses sistemas de “defesa”, tanto os bons quanto os ruins. A Stable Diffusion, por exemplo, foi alimentada com bilhões de imagens da internet até “aprender” a associar certas palavras e conceitos com certas imagens. Os modelos de geração de texto têm sido facilmente manipulados para evitar que produzam conteúdo que defenda visões ofensivas ou produza fake news. Mike Cook, membro do grupo de pesquisa aberta Knives and Paintbrushes, concorda com Gahntz quando diz que a inteligência artificial criadora continuará a se mostrar uma grande — e infelizmente, proporcionalmente problemática — força de mudança. Mas ele acha que 2023 deve ser o ano em que a inteligência artificial que cria coisas “finalmente fará jus com dinheiro envolvido”.
Artistas tentam reivindicar seus direitos
O DeviantArt lançou um gerador de arte de IA construído em Stable Diffusion e ajustado com as artes publicadas pelos próprios usuários da plataforma. O gerador de arte foi recebido com forte desaprovação de antigos usuários do DeviantArt, que criticaram a falta de transparência da plataforma no uso de sua arte carregada para treinar o sistema. Os criadores dos sistemas mais populares — OpenAI e Stability AI — dizem que tomaram medidas para limitar a quantidade de conteúdo prejudicial que seus sistemas produzem. Mas, a julgar por muitas das gerações nas mídias sociais, fica claro que há trabalho a ser feito — e muito, diga-se de passagem. Maximilian Gahntz, compara o processo de criação de arte via inteligência artificial às controvérsias em andamento sobre moderação de conteúdo nas mídias sociais. O pesquisador afirma que os conjuntos de dados exigem uma curadoria ativa para resolver esses problemas, inclusive de comunidades que tendem a consumir apenas uma pequena parcela destes conteúdos.
OpenAI, Stability AI e questões legais
A Stability AI, que financia amplamente o desenvolvimento do Stable Diffusion, recentemente cedeu à pressão do público sinalizando que permitiria aos artistas optar por não participar do conjunto de dados usado para treinar o modelo Stable Diffusion na próxima geração. Por meio de um site os detentores dos direitos de suas artes poderão solicitar cancelamentos antes do início do treinamento que será aplicado às ferramentas. Já o OpenAI não oferece esse mecanismo de exclusão, preferindo fazer parceria com organizações como a Shutterstock para licenciar partes de suas galerias de imagens. Mas, considerando os caminhos contrários legais e de publicidade que enfrenta ao lado da Stability AI, provavelmente é apenas uma questão de tempo até que siga o exemplo da sua irmã de mercado. E no sentido legal da coisa, também é possível ver certa movimentação. Nos EUA, a Microsoft, GitHub e — olha ela aqui de novo — a OpenAI estão sendo processados em uma ação coletiva que os acusa de violar a lei de direitos autorais ao permitir que o Copilot, serviço do GitHub que sugere linhas de código de forma inteligente, forneça de alguma maneira — paga, gratuita ou por qualquer meio — seções de código licenciado sem fornecer os devidos créditos. Talvez para evitar mais complicações legais, o GitHub adicionou recentemente configurações para impedir que o código público apareça nas sugestões do Copilot, além de planejar a introdução de um recurso que fará referência à fonte das sugestões de código. Mas são medidas que ainda não foram testadas a sério para irem ao ar.
Soluções de sistemas abertos
2022 viu um bocado de empresas de inteligência artificial dominarem o palco, principalmente OpenAI e Stability AI. Mas as coisas podem acabar voltando ao código aberto em 2023, à medida que a capacidade de construir novos sistemas forem além de “laboratórios de IA poderosos e ricos em recursos“, como disse Maximilian Gahntz. Uma abordagem comunitária pode levar a um maior escrutínio dos sistemas à medida que estão sendo construídos e implantados. Gahntz prossegue ao afirmar que se os modelos forem abertos e se os conjuntos de dados também forem abertos, isso irá permitir muito mais pesquisas críticas que apontaram para muitas das falhas e danos ligados à criação por inteligência artificial, e isso costuma ser muito difícil de conduzir. Exemplos de esforços focados na comunidade incluem grandes modelos de linguagem da EleutherAI e da BigScience, um trabalho que é apoiado pela startup de inteligência artificial Hugging Face. A Stability AI está financiando várias comunidades, como Harmonai e OpenBioML, focada na geração de música, além de ser uma coleção livre de experimentos biotecnológicos. Dinheiro e experiência ainda são necessários para treinar e executar modelos sofisticados de inteligência artificial, mas a computação descentralizada pode desafiar os servidores que concentram a informação de maneira mais tradicional à medida que os esforços de código aberto se tornam cada vez mis maduros. A BigScience deu um passo à frente ao permitir o desenvolvimento descentralizado com o recente lançamento do projeto de código aberto Petals. O Petals permite que as pessoas contribuam com seu poder de computação para executar grandes modelos de linguagem de inteligência artificial que normalmente requerem uma GPU ou servidor com uma qualidade mais elevada que o de costume. Chandra Bhagavatula ressalta, no entanto, que grandes laboratórios continuarão a ter vantagens competitivas, desde que os métodos e dados permaneçam proprietários. Em um exemplo recente, a OpenAI lançou o Point-E, um modelo que pode gerar objetos 3D a partir de um prompt de texto. Porém, mesmo a OpenAI tendo aberto o código do modelo, ela não divulgou as fontes dos dados de treinamento do Point-E nem liberou esses dados.
Primeiros passos para alguma regulamentação
Regulamentações como a Lei de Inteligência Artificial da União Europeia podem mudar a forma como as empresas desenvolvem e implantam sistemas de IA no futuro. Assim mais esforços locais, como o estatuto de contratação de IA da cidade de Nova York, que exige que a tecnologia baseada em algoritmos e IA para recrutamento, contratação ou promoção seja auditada antes de ser usada de fato. Chandra Bhagavatula vê esses regulamentos como necessários, especialmente à luz das falhas técnicas cada vez mais aparentes da tecnologia de inteligência artificial criadora, como sua tendência de divulgar informações potencialmente erradas. No entanto, o próximo ano trará apenas a ameaça de regulamentação. Nesse sentido podemos esperar muito mais discussões sobre regras e processos judiciais antes que alguém seja multado ou acusado — e com razão. Mas as empresas ainda podem disputar posições nas categorias mais vantajosas das próximas leis, como as categorias de risco da Lei de Inteligência Artificial. A regra, conforme escrita atualmente, divide os sistemas de Inteligência Artificial em uma das quatro categorias de risco, cada uma com diferentes requisitos e níveis. Os sistemas na categoria de risco mais alto, Inteligência Artificial de “alto risco” — por exemplo, algoritmos de pontuação de crédito, aplicativos de cirurgia robótica e outros com dados sensíveis –, precisam atender a certos padrões legais, éticos e técnicos antes de serem autorizados a entrar no mercado europeu. A categoria de menor risco, Inteligência Artificial de “risco mínimo ou nenhum risco” — por exemplo, filtros de spam, videogames habilitados para IA e outros que não contenham dados tão sensíveis –, impõe apenas obrigações de transparência, como conscientizar os usuários de que estão interagindo com um sistema de Inteligência Artificial. Os Keyes, candidato a PhD na Universidade de Washington, expressou preocupação de que as empresas busquem o nível de risco mais baixo para minimizar suas próprias responsabilidades e visibilidade para os reguladores. “Deixando de lado essa preocupação, essa questão sobre a regulamentação da Inteligência Artificial realmente é a coisa mais positiva que vejo sobre a mesa. Não vi muita coisa fora do Congresso“, diz Os.
E quanto à economia?
Maximilian Gahntz argumenta que, mesmo que um sistema de Inteligência Artificial funcione bem o suficiente para a maioria das pessoas, mas seja profundamente prejudicial para outras pessoas, ainda resta muito trabalho pesado a se fazer antes que uma empresa o torne amplamente disponível de fato. Não está claro se as empresas serão persuadidas por esse argumento no ano que vem — e quem sabe nos anos seguintes –, principalmente porque os investidores parecem ansiosos para colocar seu dinheiro além de qualquer Inteligência Artificial generativa promissora. Em meio às controvérsias da Stable Diffusion, a Stability AI levantou US$ 101 milhões em uma avaliação de mais de US$ 1 bilhão de patrocinadores, incluindo alguns nomes conhecidos neste meio como Coatue e Lightspeed Venture Partners. Também foi informado que a OpenAI está avaliada em US$ 20 bilhões ao entrar em negociações avançadas para levantar mais fundos da Microsoft — lembrando que em 2019 a Microsoft investiu US$ 1 bilhão na OpenAI em 2019. E você, como acha que a inteligência artificial vai se comportar no ano que vem? Conta pra gente nos comentários! Veja também: Artista usa IA para falar com sua criança interior. Fonte: TechCrunch.