[Grupo de Estudos] Resumo (26/Jan até 01/Fev) - Inteligência Artificial
Semanalmente busco me manter atualizado e também explorar conteúdo da minha área de atuação, mantenho este trabalho limitado a grupos com colegas onde debatemos o impacto de novos trabalhos. Gostaria de expandir isso para que mais pessoas possam aprender ou ter referências para seus escritos. Segue um lista com os trabalhos, selecionados:
Paper
ORDER MATTERS: SEQUENCE TO SEQUENCE FOR SETS
Em uma sentença: a ordem na qual modelos de redes neurais recebe os dados importa, há casos claros e casos onde isto não é evidente. Os pesquisadores apresentam neste trabalho uma forma de encontrar padrões ocultos o que possibilita melhor desempenho da rede neural.
Imagine um robô recolhendo brinquedos espalhados no chão, ele pode fazer isto aleatoriamente (sem ordem), ou você pode ajustar para ele recolher os brinquedos mais próximos dele (por exemplo). No Segundo caso, é provável que a tarefa seja feita de modo mais eficiente.
DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning
A surpresa da semana foi a família de modelos da startup DeepSeek. No ensaio “Eu li o paper sobre o DeepSeek-R1 e vou te explicar porque ele é melhor que o CHATGPT“, eu trato dos aspectos técnicos que o fazem superior a versão o1 da Openai.
Livro do Mês
No mês passado eu selecionei o livro, “Why Machines Learn: The Elegant Math Behind Modern AI" por A. Ananthaswamy”
Em uma sentença: Guia histórico de eventos e grandes pesquisadores que contribuíram para o estado da Inteligência Artificial moderna, contém explicações matemáticas que usam álgebra e cálculo, mas tudo é feito de forma simplificada.
É uma leitura leve, apesar de conter matemática, pular não te fará não ser capaz de acompanhar o livro–embora eu acho que vale a pena se esforçar um pouco. O escritor, A. Ananthaswamy, é um grande comunicador e jornalista e simplifica conceitos como “Kernel Trick”, “Redes Neuronais” e outros, de forma brilhante. É possível encontrar um podcast no YouTube no qual o autor trata sobre o livro, "Why Machines Learn: The Elegant Math Behind Modern AI"
Blog
Appendix: Mathematics for Deep Learning
Em uma sentença: princípios básicos da álgebra linear que são usados em Machine Learning em um site interativo contendo código que demonstra alguns desses conceitos.
Principais conceitos:
- vetor: pontos ou direções no espaço
- dot product: ajuda a saber se dois vetores estão apontando na mesma direção
- hyperplanes: são generalizações de linhas e planos, são úteis para separar dados em tarefas como classificação.
- multiplicação matricial: forma de modificar vetores (aumentar, diminuir).
- dependência linear: é quando uma coluna de alguma matriz é uma combinação de outras colunas
- rank de uma matriz: diz quantas colunas são independentes
- matriz inversa: imagine que você rotaciona uma matriz, a matriz inversa desfaz a rotação.
- determinante: o quanto uma matriz afeta o espaço
- tensores: arrays com muitas dimensões
- tensor contraction: adicionar parte de tensores para que se tornem mais simples
- Einstein sum: forma de adicionar elementos
Nota do autor
- Seja paciente sobre possíveis erros gramaticais, a julgar pela recorrência deles você sabe o quanto eu usei o ChatGPT ou qualquer outra ferramenta para escrever o mesmo.
- Este trabalho levou tempo para ser pesquisado e filtrado, escrever é uma tarefa nobre e árdua. Se sentir confortável, deixe seu feedback (construtivo).
- Em caso de dúvidas, deixe nos comentários abaixo (farei o possível para responder a tempo).
Se gostou deste tipo de conteúdo você pode me seguir na DIO ou em outras plataformas:
Outros ensaios na DIO
- APRENDA INGLÊS CRIANDO METAS QUE FAZEM SENTIDO.
- PORQUE VOCÊ NÃO VAI LER ESTE ARTIGO ATÉ O FINAL
- DEIXE-ME CONVENCER VOCÊ A LER "MACHINE LEARNING PAPERS."
- LISTA DE LIVROS SOBRE INTELIGÊNCIA ARTIFICIAL QUE SEMPRE TENHO POR PERTO.
- APRENDA IA EM 2025 - ROADMAP
- [Paper Club] Recomendação de Leitura (26/Jan até 02/Fev) - Inteligência Artificial
- Eu vou fazer o mesmo projeto durante 30 dias, eis a razão