Quando o ChatGPT foi lançado no final de 2022, ele mudou completamente a relação das pessoas com a tecnologia. De repente, as pesquisas online eram agentivas, o que significa que você poderia ter uma conversa em linguagem natural com um chatbot e ele responderia com respostas novas, muito parecidas com as de um humano. Foi tão transformador que Google, Meta, Microsoft e Apple rapidamente começaram a integrar IA em seu conjunto de produtos.

Mas esse aspecto dos chatbots de IA é apenas uma parte do cenário da IA. Claro, ter ChatGPT ajuda você a fazer sua lição de casa ou ter Midjouney criando imagens fascinantes de mechs com base no país de origem é legal, mas o potencial da IA ​​generativa pode remodelar completamente as economias. Isso pode valer a pena 4,4 biliões de dólares para a economia global anualmentede acordo com o McKinsey Global Institute, e é por isso que você deve esperar ouvir cada vez mais sobre inteligência artificial.

ai-atlas-tag.png

Ele está aparecendo em uma variedade estonteante de produtos — uma lista curta, curta, inclui Gemini do Google, Copilot da Microsoft, Claude da Anthropic, a ferramenta de busca Perplexity AI e gadgets da Humane e Rabbit. Você pode ler nossas análises e avaliações práticas desses e de outros produtos, junto com notícias, explicações e postagens de como fazer, em nosso novo hub AI Atlas.

À medida que as pessoas se acostumam mais a um mundo interligado com IA, novos termos estão surgindo em todos os lugares. Então, se você está tentando soar inteligente em um drink ou impressionar em uma entrevista de emprego, aqui estão alguns termos importantes de IA que você deve saber.

Este glossário será atualizado regularmente.

inteligência geral artificial, ou AGI: Um conceito que sugere uma versão mais avançada da IA ​​do que a que conhecemos hoje, uma que pode executar tarefas muito melhor do que os humanos e, ao mesmo tempo, ensinar e aprimorar suas próprias capacidades.

Ética da IA: Princípios que visam evitar que a IA prejudique os humanos, alcançados por meio de meios como determinar como os sistemas de IA devem coletar dados ou lidar com preconceitos.

Segurança da IA: Um campo interdisciplinar que se preocupa com os impactos de longo prazo da IA ​​e como ela pode progredir repentinamente para uma superinteligência que pode ser hostil aos humanos.

algoritmo: Uma série de instruções que permite que um programa de computador aprenda e analise dados de uma maneira específica, como reconhecer padrões, para então aprender com eles e realizar tarefas por conta própria.

alinhamento: Ajustar uma IA para produzir melhor o resultado desejado. Isso pode se referir a qualquer coisa, desde moderar conteúdo até manter interações positivas com humanos.

antropomorfismo: Quando humanos tendem a dar a objetos não humanos características humanas. Em IA, isso pode incluir acreditar que um chatbot é mais humano e consciente do que realmente é, como acreditar que ele é feliz, triste ou até mesmo senciente.

inteligência artificial, ou IA: O uso de tecnologia para simular a inteligência humana, seja em programas de computador ou robótica. Um campo na ciência da computação que visa construir sistemas que podem executar tarefas humanas.

agentes autônomos: Um modelo de IA que tem as capacidades, programação e outras ferramentas para realizar uma tarefa específica. Um carro autônomo é um agente autônomo, por exemplo, porque tem entradas sensoriais, GPS e algoritmos de direção para navegar na estrada sozinho. Pesquisadores de Stanford demonstraram que agentes autônomos podem desenvolver suas próprias culturas, tradições e linguagem compartilhada.

viés: Em relação a grandes modelos de linguagem, erros resultantes dos dados de treinamento. Isso pode resultar em atribuição falsa de certas características a certas raças ou grupos com base em estereótipos.

robô de bate-papo: Um programa que se comunica com humanos através de texto que simula a linguagem humana.

Bate-papoGPT: Um chatbot de IA desenvolvido pela OpenAI que usa tecnologia de modelo de linguagem grande.

computação cognitiva: Outro termo para inteligência artificial.

aumento de dados: Remixar dados existentes ou adicionar um conjunto mais diversificado de dados para treinar uma IA.

aprendizagem profunda: Um método de IA, e um subcampo de aprendizado de máquina, que usa múltiplos parâmetros para reconhecer padrões complexos em imagens, som e texto. O processo é inspirado no cérebro humano e usa redes neurais artificiais para criar padrões.

difusão: Um método de machine learning que pega um pedaço de dados existente, como uma foto, e adiciona ruído aleatório. Modelos de difusão treinam suas redes para reprojetar ou recuperar essa foto.

comportamento emergente:Quando um modelo de IA exibe habilidades não intencionais.

aprendizagem de ponta a ponta, ou E2E: Um processo de aprendizado profundo no qual um modelo é instruído a executar uma tarefa do início ao fim. Ele não é treinado para realizar uma tarefa sequencialmente, mas, em vez disso, aprende com as entradas e resolve tudo de uma vez.

Considerações éticas: Uma conscientização sobre as implicações éticas da IA ​​e questões relacionadas à privacidade, uso de dados, justiça, uso indevido e outras questões de segurança.

Xingamento: Também conhecido como decolagem rápida ou decolagem dura. O conceito de que se alguém construir uma AGI, pode ser tarde demais para salvar a humanidade.

redes adversárias generativas, ou GANs: Um modelo de IA generativo composto por duas redes neurais para gerar novos dados: um gerador e um discriminador. O gerador cria um novo conteúdo, e o discriminador verifica se ele é autêntico.

IA generativa: Uma tecnologia de geração de conteúdo que usa IA para criar texto, vídeo, código de computador ou imagens. A IA é alimentada com grandes quantidades de dados de treinamento, encontra padrões para gerar suas próprias respostas novas, que às vezes podem ser semelhantes ao material de origem.

Google Gêmeos: Um chatbot de IA do Google que funciona de forma semelhante ao ChatGPT, mas extrai informações da web atual, enquanto o ChatGPT é limitado a dados até 2021 e não está conectado à internet.

guarda-corpos: Políticas e restrições impostas aos modelos de IA para garantir que os dados sejam manipulados de forma responsável e que o modelo não crie conteúdo perturbador.

alucinação: Uma resposta incorreta da IA. Pode incluir IA generativa produzindo respostas que são incorretas, mas declaradas com confiança como se estivessem corretas. As razões para isso não são totalmente conhecidas. Por exemplo, ao perguntar a um chatbot de IA, “Quando Leonardo da Vinci pintou a Mona Lisa?” pode responder com uma afirmação incorreta dizendo: “Leonardo da Vinci pintou a Mona Lisa em 1815”, o que é 300 anos depois de ela ter sido realmente pintada.

modelo de linguagem grande, ou LLM: Um modelo de IA treinado em grandes quantidades de dados de texto para entender a linguagem e gerar novos conteúdos em linguagem semelhante à humana.

aprendizado de máquina ou ML: Um componente em IA que permite que computadores aprendam e façam melhores resultados preditivos sem programação explícita. Pode ser acoplado com conjuntos de treinamento para gerar novo conteúdo.

Microsoft Bing: Um mecanismo de busca da Microsoft que agora pode usar a tecnologia que alimenta o ChatGPT para fornecer resultados de busca alimentados por IA. É semelhante ao Google Gemini por ser conectado à internet.

IA multimodal: Um tipo de IA que pode processar vários tipos de entradas, incluindo texto, imagens, vídeos e fala.

processamento de linguagem natural: Um ramo da IA ​​que usa aprendizado de máquina e aprendizado profundo para dar aos computadores a capacidade de entender a linguagem humana, geralmente usando algoritmos de aprendizado, modelos estatísticos e regras linguísticas.

rede neural: Um modelo computacional que se assemelha à estrutura do cérebro humano e é destinado a reconhecer padrões em dados. Consiste em nós interconectados, ou neurônios, que podem reconhecer padrões e aprender ao longo do tempo.

sobreajuste: Erro no aprendizado de máquina, onde ele funciona muito próximo dos dados de treinamento e pode identificar apenas exemplos específicos nos dados, mas não novos dados.

clipes de papel: A teoria do maximizador de clipes de papel, cunhada pelo filósofo Nick Boström da Universidade de Oxford, é um cenário hipotético em que um sistema de IA criará o máximo de clipes de papel literais possível. Em seu objetivo de produzir a quantidade máxima de clipes de papel, um sistema de IA hipoteticamente consumiria ou converteria todos os materiais para atingir seu objetivo. Isso poderia incluir desmontar outras máquinas para produzir mais clipes de papel, máquinas que poderiam ser benéficas para os humanos. A consequência não intencional desse sistema de IA é que ele pode destruir a humanidade em seu objetivo de fazer clipes de papel.

parâmetros: Valores numéricos que dão estrutura e comportamento aos LLMs, permitindo que eles façam previsões.

incitar: A sugestão ou pergunta que você insere em um chatbot de IA para obter uma resposta.

encadeamento rápido: A capacidade da IA ​​de usar informações de interações anteriores para influenciar respostas futuras.

papagaio estocástico: Uma analogia de LLMs que ilustra que o software não tem uma compreensão maior do significado por trás da linguagem ou do mundo ao redor dela, independentemente de quão convincente a saída soe. A frase se refere a como um papagaio pode imitar palavras humanas sem entender o significado por trás delas.

transferência de estilo: A habilidade de adaptar o estilo de uma imagem ao conteúdo de outra, permitindo que uma IA interprete os atributos visuais de uma imagem e os use em outra. Por exemplo, pegar o autorretrato de Rembrandt e recriá-lo no estilo de Picasso.

temperatura: Parâmetros definidos para controlar o quão aleatória é a saída de um modelo de linguagem. Uma temperatura mais alta significa que o modelo assume mais riscos.

geração de texto para imagem: Criação de imagens com base em descrições textuais.

fichas: Pequenos pedaços de texto escrito que os modelos de linguagem de IA processam para formular suas respostas aos seus prompts. Um token é equivalente a quatro caracteres em inglês, ou cerca de três quartos de uma palavra.

dados de treinamento: Os conjuntos de dados usados ​​para ajudar os modelos de IA a aprender, incluindo texto, imagens, código ou dados.

modelo de transformador: Uma arquitetura de rede neural e modelo de aprendizado profundo que aprende contexto rastreando relacionamentos em dados, como em frases ou partes de imagens. Então, em vez de analisar uma frase uma palavra de cada vez, ele pode olhar para a frase inteira e entender o contexto.

Teste de Turing: Nomeado em homenagem ao famoso matemático e cientista da computação Alan Turing, ele testa a capacidade de uma máquina de se comportar como um humano. A máquina passa se um humano não consegue distinguir a resposta da máquina de outro humano.

IA fraca, também conhecida como IA estreita: IA que é focada em uma tarefa específica e não consegue aprender além de seu conjunto de habilidades. A maioria das IAs de hoje são IAs fracas.

aprendizagem de tiro zero: Um teste no qual um modelo deve completar uma tarefa sem receber os dados de treinamento necessários. Um exemplo seria reconhecer um leão enquanto é treinado apenas em tigres.



Fuente