Seminários
PRÓXIMOS
Conexões em Geometria Algébrica 3
Resumo: As conexões em Geometria Algébrica são essencialmente sistemas de equações diferenciais lineares sobre esquemas. Neste curso, apresentarei alguns aspectos básicos destes objetos supondo que o público possui conhecimento equivalente àquele trabalhado no curso "Geometria Algébrica II" ou facilidade para traduzir enunciados da Geometria Algébrica para a Geometria Analítica Complexa.
Após introduzir os objetos fundamentais e a "Álgebra Linear" que os acompanha, falarei da interpretação Grothendieckeana das conexões (as estratificações) e deduzirei mais resultados fundamentais. Em seguida, em busca de algo concreto e belo, provarei o Teorema de Atiyah-Weil sobre conexões em curvas completas; este resultado servirá de motivação para mencionar o célebre Teorema de Narasimhan-Seshadri e suas generalizações fantásticas. O curso terminará com um estudo da conexão de Gauss-Manin como originalmente apresentada por Manin no caso de uma curva sobre um corpo possuindo derivações.
Conexões em Geometria Algébrica 4
Resumo: As conexões em Geometria Algébrica são essencialmente sistemas de equações diferenciais lineares sobre esquemas. Neste curso, apresentarei alguns aspectos básicos destes objetos supondo que o público possui conhecimento equivalente àquele trabalhado no curso "Geometria Algébrica II" ou facilidade para traduzir enunciados da Geometria Algébrica para a Geometria Analítica Complexa.
Após introduzir os objetos fundamentais e a "Álgebra Linear" que os acompanha, falarei da interpretação Grothendieckeana das conexões (as estratificações) e deduzirei mais resultados fundamentais. Em seguida, em busca de algo concreto e belo, provarei o Teorema de Atiyah-Weil sobre conexões em curvas completas; este resultado servirá de motivação para mencionar o célebre Teorema de Narasimhan-Seshadri e suas generalizações fantásticas. O curso terminará com um estudo da conexão de Gauss-Manin como originalmente apresentada por Manin no caso de uma curva sobre um corpo possuindo derivações.
GEOMETRY OF BOGOMOLOV-GUAN MANIFOLDS
Resumo: In 90-s Guan published a series of papers constructing non-Kähler holomorphic symplectic manifolds, challenging a conjecture by Todorov. These examples were later constructed by Bogomolov in a different way and are now called BG-manifolds. His construction emphasizes the analogy with the Kodaira-Thurston example of non-Kähler symplectic surfaces. In this talk we will discuss the geometry of such manifolds: their submanifolds and algebraic reduction to P^n; and the deformation theory of them, which is quite similar to that of the hyperkähler case.
Famílias topologicamente completas de germes de campos de vetores holomorfos em $(\mathbb C^2,0)$
Resumo: A palestra discutirá os trabalhos recentes arXiv:2105.12688, arXiv:2201.07479 escritos em colaboração com David Marín e Eliane Salem.
Um algoritmo de aprendizagem universalmente consistente com um erro monótono
Resumo: Vou apresentar uma solução, em afirmativo, de um problema em aberto desde 1996 sobre a existência de um algoritmo de aprendizagem com as propriedades em título (JMLR23(157):1−27, 2022). Um algoritmo (ou regra) de aprendizagem supervisionada é uma aplicação associando um classificador a cada amostra rotulada, predizendo os rótulos desconhecidos de todos os pontos. O erro de classificação é a probabilidade de associar um rótulo errado. Um algoritmo é chamado universalmente consistente se, qualquer que seja a lei de distribuição de dados rotulados, o erro de classificação converge para o erro menor possível (o erro de Bayes) no limite quando o tamanho da amostra cresce. Intuitivamente, quanto mais dados, menos o erro de classificação, mas todos os algoritmos conhecidos admitem situações onde o erro cresce temporariamente para alguns valores do tamanho. Vou descrever um algoritmo que possui a monotonicidade. Depois da pré-publicação do meu algoritmo, um grupo de pesquisadores (Bousquet, Daniely, Kaplan, Mansour, Moran, e Stemmer, arXiv:2202.05246 [cs.LG]) já estendeu o resultado mostrando que qualquer algoritmo consistente pode ser convertido em um algoritmo monótono. Vou discutir o resultado deles também.O modelo padrão de aprendizagem supervisionada é descrito, por exemplo, no meu livro do CMB'32 https://impa.br/wp-content/uploads/2022/03/32CBM07_eBook.pdf