Ao contrário da crença popular, a inteligência artificial (IA) é um campo da ciência extremamente amplo. Você sabia que suas raízes remontam à década de 1950? Por que demorou quase 70 anos para obter o ChatGPT? E por que só agora estamos tentando regular isso?
Esta longa jornada pode ser explicada por uma combinação de limitações tecnológicas, desafios teóricos, (in)disponibilidade de dados e mudanças no foco da investigação. O ChatGPT levou cerca de setenta anos para ser desenvolvido, já que as primeiras pesquisas em IA nas décadas de 1950 e 1960 eram limitadas por hardware comum e pela falta de grandes conjuntos de dados.
Desenvolvimento caracterizado pela escassez
A área passou por vários “invernos” devido a expectativas não satisfeitas, mas um progresso significativo veio com a ascensão da aprendizagem automática na década de 1980, seguida por avanços na aprendizagem profunda.
O uso predominante da Internet gerou grandes quantidades de dados textuais, enquanto hardware especializado tornou o treinamento de grandes modelos computacionalmente viável.
Os desenvolvimentos na arquitetura do transformador em 2017 finalmente permitiram uma compreensão avançada da linguagem, levando a modelos poderosos como o GPT-3 e o GPT-4. Eles são baseados no aprendizado profundo e projetados para gerar textos naturais e compreender a linguagem humana de uma forma surpreendentemente humana.
Com o que estamos lidando hoje?
Hoje em dia, IA é um termo abrangente para várias subáreas.
Aprendizado de máquina é o principal impulsionador da maioria dos modernos sistemas de inteligência artificial, voltados para o desenvolvimento de algoritmos especializados. Eles aprendem com os dados de entrada.
Aprendizado profundo é um subconjunto de aprendizado de máquina que se concentra em redes neurais multicamadas (arquiteturas profundas). Este subcampo causou a criação redes neurais convolucionais, que são comumente usados em visão computacional, redes neurais recorrentes e mais tarde transformadores ter redes adversárias generativas (GAN) para tarefas generativas.
Processamento de linguagem natural concentra-se na compreensão e criação da linguagem humana.
Visão computacional está preocupado em permitir a interpretação automática de dados visuais.
A diversidade dentro da IA também decorre das inúmeras metodologias utilizadas para resolver diferentes problemas, cada uma adaptada a aplicações específicas.
Modelos probabilísticos aplicar princípios estatísticos para derivar distribuições de dados subjacentes e quantificar a incerteza.
Algoritmos evolutivos são inspirados na evolução biológica usando mecanismos como mutação, cruzamento e seleção para resolver problemas de otimização.
inteligência artificial simbólica, Muitas vezes ofuscado pela aprendizagem profunda, baseia-se na representação e no raciocínio explícitos do conhecimento e continua a ser importante em aplicações que requerem interpretabilidade. Hoje em dia assistimos a uma tendência crescente modelos híbridosque combinam raciocínio simbólico com aprendizagem profunda.
A complexidade do desenvolvimento de IA reside não apenas na criação e treinamento de modelos, mas também no gerenciamento de todo o ciclo de vida – incluindo coleta de dados, implantação e manutenção de modelos. Além disso, a inteligência artificial é de natureza interdisciplinar e baseia-se em conhecimentos da neurociência, da física, da economia e afins.
O texto foi elaborado no projeto Homopolitikus do think tank político do Institute for Political Management. A coluna representa a posição do autor e não necessariamente da equipe editorial de 24ur.com.
Difícil definir conteúdo jurídico
A inteligência artificial é vasta e complexa, por isso a tarefa de regulamentá-la parece quase intransponível. Pergunte a si mesmo como você pode garantir que os reguladores entendam o que estão regulamentando? Como irão manter os seus conhecimentos regulamentares num domínio em rápida evolução? Como lidar com sistemas que combinam diferentes abordagens?
A UE acredita que a sua excelência regulamentar está à altura do desafio da nova legislação sobre IA. Quais são os planos concretos? A Lei da IA classifica as aplicações de IA em quatro níveis de risco – mínimo, limitado, alto e inaceitável – com base no seu potencial para prejudicar indivíduos ou a sociedade.
Estipula também que os sistemas de IA utilizados em áreas de alto risco devem ser submetidos a avaliações de risco. Ao mesmo tempo, não está explicitamente definido o que constitui dados de “alta qualidade” ou “representativos”. Isto deixa margem para interpretação e possível inconsistência na sua aplicação. O que constitui dados “justos” ou como o preconceito é quantificado não está claramente definido. Na prática, isto pode levar a diferentes interpretações jurídicas.
As regulamentações acompanharão o desenvolvimento?
Embora a lei exija “testes rigorosos”, ela não prescreve metodologias detalhadas sobre o que isso deveria implicar. Quão rigoroso é ‘estrito’? Quais testes precisam ser realizados e quem é o responsável por eles? Os procedimentos de avaliação de desempenho e de avaliação de riscos são críticos. Mas sem orientações mais claras sobre medições, parâmetros de referência e procedimentos de teste, existe o risco de a lei da UE em matéria de IA ser demasiado flexível para garantir uma segurança real.
Afinal, está a tentar resolver um problema que pode ser demasiado multifacetado e dinâmico para ser gerido de forma eficaz. Como salientámos correctamente, os responsáveis poderão – se compreenderem plenamente as complexidades da inteligência artificial – não estarem mais bem informados do que o leitor médio.
Os objectivos da lei são admiráveis, mas a sua implementação poderá ser comprometida pela natureza da área que pretende regular. Como resultado, as soluções serão limitadas, incompletas e poderão não conseguir acompanhar o ambiente de IA em evolução.