Se você já assistiu ao filme Ela, de 2013 (se não, saiba que vale a pena), talvez tenha se imaginado apaixonado pelo seu assistente virtual e vivendo uma bela, ou quase, história de amor. Por outro lado, se viu Ex Machina: instinto artificial, de 2014, pode ter ficado preocupado com o futuro da humanidade e a ideia de uma possível revolta das máquinas. Apesar das visões distintas e inquietantes de cada filme sobre o futuro da inteligência artificial (IA), por hora, podemos ficar calmos, pois essa área da computação já existe há bastante tempo e, até agora, nos adaptamos muito bem.

Hoje, vamos explorar essa tecnologia que já impacta nossas vidas e promete revolucionar ainda mais o nosso dia a dia, tanto no âmbito pessoal quanto profissional.

Imagem do filme Ex Machina: instinto artificial, de 2014 | Reprodução

Uma breve introdução a IA

Antes mesmo da criação do termo “inteligência artificial”, Alan Turing, um dos pioneiros da computação, propôs em 1950 um teste para avaliar se uma máquina poderia ser considerada “inteligente”. No Teste de Turing, um observador humano interage com um interlocutor sem saber se está conversando com uma pessoa ou com uma máquina. Se a máquina conseguir enganar o observador, fazendo-o acreditar que é humana, ela passa no teste. O Teste de Turing criou um critério prático para medir o avanço da IA e é discutido até hoje.

Seis anos depois, em 1956, o termo “inteligência artificial” foi oficialmente introduzido durante a histórica Conferência de Dartmouth. Esse evento foi um marco para a área e reuniu pesquisadores que acreditavam na possibilidade de criar máquinas capazes de simular aspectos da inteligência humana. John McCarthy, um dos principais cientistas da época, propôs o termo “inteligência artificial” para descrever esses sistemas. Ele acreditava que, com o tempo, computadores seriam capazes de resolver problemas complexos e raciocinar de maneira autônoma.

Proposta para o Projeto de Pesquisa de Verão de Dartmouth sobre Inteligência Artificial | Reprodução

Naquela época, o computador mais avançado era o imponente IBM 7090, que ocupava uma sala inteira! Esse gigante armazenava dados em enormes fitas cassete e recebia instruções por meio de cartões perfurados. Ele era capaz de realizar cerca de 200 mil operações por segundo, um feito impressionante para a época, mas ainda insuficiente para lidar com os cálculos intensos e com o volume enorme de dados que a IA demandaria.

IBM 7090 | Reprodução

Décadas depois, com os avanços dos transistores, os supercomputadores modernos agora realizam quatrilhões de operações por segundo, superando muitas limitações do passado. O que levaria milhares de anos para ser processado pelo IBM 7090, hoje pode ser feito em frações de segundos.

Além disso, a internet trouxe uma avalanche de dados, permitindo a criação de modelos de IAs mais complexos e precisos. Cada vez que fazemos o upload de uma foto, clicamos em um link, postamos uma hashtag, curtimos um vídeo no YouTube, marcamos amigos no Instagram, discutimos no Reddit, publicamos no TikTok, compramos na Amazon ou chamamos um Uber, estamos gerando dados. Com essa quantidade gigantesca de informações, os algoritmos das IAs conseguem aprender e se aprimorar constantemente, tornando-se cada vez mais eficazes em diversas áreas.

Hoje, a IA já está presente em praticamente todos os lugares. Bancos a utilizam para analisar e tomar decisões sobre concessão de crédito e, na medicina, a IA auxilia no diagnóstico de diferentes doenças. No nosso dia a dia, a IA está nos assistentes virtuais, nas recomendações de filmes e músicas dos streamings, na otimização de transportes e até na automação de tarefas domésticas. Muitas vezes, ela está tão integrada à nossa rotina que nem percebemos.

Aplicações da IA

Embora as IAs generativas, como chatbots e criadores de conteúdo, sejam bastante populares, elas representam apenas uma parte desse universo. A IA é capaz de resolver uma variedade de problemas, desempenhando um papel essencial no avanço da tecnologia. A seguir, veremos algumas de suas principais aplicações:

IA preditiva: é utilizada para antecipar eventos futuros com base em dados históricos e padrões identificados, como previsão de vendas, comportamento do cliente, detecção de fraudes e manutenção preventiva. O processo envolve a coleta e preparação de dados, a escolha e treinamento de um modelo preditivo (como regressão, árvores de decisão ou redes neurais) e o ajuste do modelo para melhorar a precisão das previsões.

  • Exemplo: previsão de demanda de produtos
  • Plataforma: Amazon Forecast
  • Descrição: o Amazon Forecast utiliza IA para prever a demanda de produtos com base em dados históricos e variáveis relacionados, como tendências sazonais e promoções. Ele ajuda empresas a melhorar a precisão das previsões e a otimizar o gerenciamento de estoque.

IA prescritiva: ao invés de prever eventos futuros, a IA prescritiva oferece recomendações sobre ações ideais a serem tomadas para alcançar objetivos específicos. Ela é usada em áreas como a logística, para otimizar a cadeia de suprimentos e reduzir custos, combinando aprendizado de máquina, otimização e análise de dados para melhorar a tomada de decisões.

  • Exemplo: otimização de atendimento
  • Plataforma: IBM Sterling Fulfillment Optimizer
  • Descrição: utiliza IA para ajudar varejistas a alcançarem o menor custo de atendimento, nas etapas pré e pós-compra, dentro de ambientes mais complexos. A solução analisa em tempo real dados sobre demanda, inventário e rotas de entrega para sugerir ações que minimizem custos e melhorem a experiência do cliente.

IA generativa: focada na criação de novos dados ou conteúdos, como textos, imagens, vídeos e até códigos, essa IA é capaz de gerar amostras semelhantes a dados reais ou de acordo com os critérios dos usuários. Técnicas como Redes Adversárias Generativas (GANs), Autoencoders Variacionais (VAEs) e modelos de linguagem são amplamente usadas, possibilitando a criação de arte, textos e até imagens realistas.

  • Exemplo: criação de imagens e artes
  • Plataforma: DALL-E 2
  • Descrição: IA desenvolvida pela OpenAI, o DALL-E 2 gera imagens a partir de descrições textuais, permitindo a criação de conteúdo visual com base em instruções fornecidas pelo usuário.

[Legenda: Uma imagem de Homer Simpson em Blair Witch Project gerada pelo DALL-E 2 / Fonte: https://michaelhoweely.com/2022/07/26/more-examples-of-ai-generated-dall-e-2-images/]

Desafios éticos

O desenvolvimento e uso de IAs levantam uma série de questões éticas e desafios que precisam ser abordados para garantir que essa tecnologia seja usada de forma justa e responsável. Em primeiro lugar, os modelos de IA muitas vezes dependem de grandes volumes de dados pessoais, o que gera preocupações sobre como esses dados são coletados, armazenados e utilizados. Em relação à proteção da privacidade dos indivíduos, governos e organizações precisam garantir que as práticas de uso de dados sigam regulamentações como a Lei Geral de Proteção de Dados (LGPD) no Brasil.

Além disso, os algoritmos de IA podem, intencionalmente ou não, perpetuar preconceitos presentes nos dados com os quais são treinados. Isso pode levar a decisões injustas em diversas áreas, como no recrutamento profissional, na concessão de crédito e até na justiça criminal, onde determinados grupos podem ser discriminados ou desfavorecidos. É crucial garantir que os modelos sejam justos e imparciais, exigindo monitoramento contínuo e intervenções para reduzir esses vieses. Esse tema é abordado de forma brilhante por Cathy O’Neil no livro Algoritmo de destruição em massa (editora Rua do Sabão, 2020).
Por outro lado, à medida que a IA automatiza tarefas, há uma preocupação crescente sobre seu impacto no mercado de trabalho. Setores como atendimento ao cliente podem ser impactados com uma diminuição na demanda por trabalho humano, levando ao desemprego ou recolocação de funcionários. O desafio é justamente promover a requalificação profissional e criar novas oportunidades de emprego em áreas onde a IA complementa o trabalho humano em vez de substituí-lo.

O que preciso saber para trabalhar com IA?

Ingressar na área de inteligência artificial e ciência de dados requer a combinação de diferentes conceitos, ferramentas e tecnologias. Embora seja um campo desafiador, é extremamente gratificante devido à constante evolução e aprendizado que proporciona. O segredo é valorizar o processo de aprendizagem, já que os fundamentos são muito importantes. Aqui estão algumas etapas para começar essa jornada:

 

 

 

 

  • Redes neurais e deep learning: com o avanço do deep learning, é essencial entender redes neurais artificiais, que são a base para a IA generativa. Esses conhecimentos são importantes para trabalhar com grandes volumes de dados e resolver problemas complexos, como visão computacional e processamento de linguagem natural.Cursos: Deep Learning Specialization (em inglês); Neural Networks (em inglês); Neural Networks/ Deep Learning (em inglês).
    Livros: Deep learning book (em português)

Apesar de parecer muito conteúdo, é importante lembrar que cada pessoa tem seu próprio ritmo e estilo de aprendizado. Não há necessidade de ter pressa, pois não é fácil dominar todos esses tópicos de uma vez.

O caminho para se tornar um profissional em inteligência artificial é longo e desafiador, mas a chave está na consistência e na paixão pelo aprendizado. Valorize cada pequeno progresso, celebre suas conquistas e, o mais importante, respeite suas falhas, pois o conhecimento é construído aos poucos. Com dedicação e paciência, você estará mais perto de alcançar seus objetivos.

CRÉDITOS

Autora

Isabel de Castro Beneyto, cientista de dados na Hotmart e mestre em modelagem computacional, com ênfase em análise de sobrevivência. Atua principalmente na área de riscos, desenvolvendo modelos e sistemas de prevenção à fraude.

Saiba mais no LinkedIn

Revisora

Jayne L. Oliveira, jornalista e produtora editorial

Saiba mais no LinkedIn

Este conteúdo faz parte do PrograMaria Sprint IA e Dados.