Precisamos trazer o conceito de consentimento para o campo da Inteligência Artificial

A grande notícia do início de maio de 2023 era sobre Geoffrey Hinton, vice-presidente e engenheiro sênior renomado do Google, conhecido como um pioneiro do deep learning e responsável pelo desenvolvimento de importantes técnicas para a base da Inteligência Artificial (IA) moderna após uma década na empresa, renunciou ao cargo. Essa matéria publicada pela MIT Tecnology Review, discute o conceito de consentimento no campo da IA e a opinião de Hinton sobre sua própria criação.

O real motivo pelo qual esse abandono em um cargo, ainda mais na empresa Google, se faz relevante é a discussão e a visão dele sobre o conceito de consentimento no campo da IA. No final de abril, a OpenAI anunciou o lançamento de um modo "anônimo" para o ChatGPT (como seria ChatGPT nos negócios se ele existisse na década passada?), no qual não seria mais armazenado o histórico de conversas com as pessoas nem utilizado para aprimorar o modelo de linguagem de IA. Esse novo recurso permitia aos usuários exportar seus dados e desativar o histórico e o treinamento da ferramenta, dando-lhes mais controle sobre como suas informações são utilizadas pela empresa.

Essa decisão da OpenAI veio em resposta à crescente pressão das autoridades europeias de proteção de dados sobre o uso e a coleta de dados pela empresa. A Itália havia feito exigências relacionadas ao Regulamento Geral sobre a Proteção de Dados (GDPR) da União Europeia, e a OpenAI implementou um formulário de opt-out para os usuários, permitindo que eles escolhessem participar ou não das atividades do ChatGPT, bem como se oporem ao uso de seus dados pessoais. A RELAÇÃO DOS PAÍSES BICS COM A IA: UMA ANÁLISE DE CONFIANÇA E RISCO

Em entrevista ao jornalista Will Douglas Heaven no final de abril, a diretora de tecnologia da OpenAI, Mira Murati, afirmou que o modo anônimo era uma medida que a empresa vinha implementando gradualmente, após solicitações dos próprios usuários do ChatGPT. A OpenAI esclareceu que as mudanças nos recursos de privacidade não estavam relacionadas às investigações do General Data Protection Regulation (GDPR).

Algumas pessoas criticam o GDPR, alegando que ele sufoca a inovação, mas especialistas como Daniel Leufer, analista sênior de políticas do grupo de direitos digitais Access Now, consideram que a lei incentiva as empresas a melhorarem seus produtos e a garantirem mais controle e poder aos usuários sobre seus dados. Além disso, houve outros experimentos para dar mais controle aos usuários em ferramentas de IA. Um exemplo foi a opção dada às pessoas e empresas de não ter suas imagens incluídas no conjunto de dados de código aberto LAION, usado para treinar o modelo de IA de geração de imagens chamado Stable Diffusion. Isso permitiu que milhões de imagens fossem removidas do conjunto de dados, proporcionando às pessoas mais controle sobre o uso de seu trabalho para treinar modelos de IA.

E recentemente, Geoffrey Hinton, um dos pioneiros do deep learning, também expressou suas preocupações com a tecnologia que ele ajudou a desenvolver. Ele deixou o cargo no Google para aumentar a conscientização sobre os riscos associados às inovações em IA e sua possível superinteligência futura.

O editor sênior de tecnologia da MIT Technology Review americana, Will Douglas Heaven, encontrou Hinton quando ele estava em sua casa, no norte de Londres, apenas quatro dias antes do anúncio bombástico de que ele estava deixando o Google. 

Impressionado com os recursos de novos grandes modelos de linguagem como o GPT-4, Hinton quer aumentar a conscientização pública sobre os sérios riscos que ele agora acredita estarem associados à tecnologia que ele ajudou a desenvolver. 

Importantes desenvolvimentos e discussões no campo da Inteligência Artificial (IA) estão em foco, juntamente com a crescente conscientização sobre os desafios e riscos associados a essa tecnologia. A necessidade de um debate público e cuidadosa consideração sobre o avanço da IA é evidenciada, buscando soluções que garantam controle e poder aos usuários sobre seus dados e informações.

Organizações líderes estão respondendo à pressão das autoridades de proteção de dados, implementando medidas de privacidade que permitem aos usuários mais controle sobre o uso de suas informações. Essas medidas sublinham a importância de considerações éticas e regulamentações no desenvolvimento e aplicação da IA.

Em suma, a importância de um diálogo contínuo e cuidado sobre o desenvolvimento e uso da IA é refletida, buscando abordagens que garantam transparência, privacidade e segurança, ao mesmo tempo que promovem a inovação e o controle dos usuários sobre seus dados.

Nesse contexto, a H2O AI Hybrid Cloud surge como uma solução alinhada às necessidades modernas de IA. A plataforma permite a criação rápida de modelos e aplicativos de IA, democratizando o uso da IA na organização para inovar, tomar melhores decisões, agilizar operações, reduzir riscos e personalizar experiências para os clientes. Com a premiada plataforma H2O Driverless AI, a IA é descomplicada, tornando-se mais fácil, rápida e acessível. A H2O.ai responde diretamente aos desafios e oportunidades discutidos, permitindo que o know-how da ciência de dados seja uma força multiplicadora dentro de cada empresa, e oferecendo uma abordagem ética e responsável para o uso da IA.