Seminários

Inscreva-se na Lista | Propor Palestra | Coordenadores | Anteriores

PRÓXIMOS



Conexões em Geometria Algébrica 3

Expositor: João Pedro dos Santos - Sorbonne Université e Universidade de Montpellier
Seg 15 ago 2022, 15:30 - SALA 224Seminário de Folheações Holomorfas

Resumo: As conexões em Geometria Algébrica são essencialmente sistemas de equações diferenciais lineares sobre esquemas. Neste curso, apresentarei alguns aspectos básicos destes objetos supondo que o público possui conhecimento equivalente àquele trabalhado no curso "Geometria Algébrica II" ou facilidade para traduzir enunciados da Geometria Algébrica para a Geometria Analítica Complexa.

Após introduzir os objetos fundamentais e a "Álgebra Linear" que os acompanha, falarei da interpretação Grothendieckeana das conexões (as estratificações) e deduzirei mais resultados fundamentais. Em seguida, em busca de algo concreto e belo, provarei o Teorema de Atiyah-Weil sobre conexões em curvas completas; este resultado servirá de motivação para mencionar o célebre Teorema de Narasimhan-Seshadri e suas generalizações fantásticas. O curso terminará com um estudo da conexão de Gauss-Manin como originalmente apresentada por Manin no caso de uma curva sobre um corpo possuindo derivações.


Conexões em Geometria Algébrica 4

Expositor: João Pedro dos Santos - Sorbonne Université e Universidade de Montpellier
Ter 16 ago 2022, 15:30 - SALA 224Seminário de Folheações Holomorfas

Resumo: As conexões em Geometria Algébrica são essencialmente sistemas de equações diferenciais lineares sobre esquemas. Neste curso, apresentarei alguns aspectos básicos destes objetos supondo que o público possui conhecimento equivalente àquele trabalhado no curso "Geometria Algébrica II" ou facilidade para traduzir enunciados da Geometria Algébrica para a Geometria Analítica Complexa.

Após introduzir os objetos fundamentais e a "Álgebra Linear" que os acompanha, falarei da interpretação Grothendieckeana das conexões (as estratificações) e deduzirei mais resultados fundamentais. Em seguida, em busca de algo concreto e belo, provarei o Teorema de Atiyah-Weil sobre conexões em curvas completas; este resultado servirá de motivação para mencionar o célebre Teorema de Narasimhan-Seshadri e suas generalizações fantásticas. O curso terminará com um estudo da conexão de Gauss-Manin como originalmente apresentada por Manin no caso de uma curva sobre um corpo possuindo derivações.


GEOMETRY OF BOGOMOLOV-GUAN MANIFOLDS

Expositor: Nikon Kurnosov - University College London
Ter 16 ago 2022, 15:30 - SALA 236Seminário de Geometria Diferencial

Resumo: In 90-s Guan published a series of papers constructing non-Kähler holomorphic symplectic manifolds, challenging a conjecture by Todorov. These examples were later constructed by Bogomolov in a different way and are now called BG-manifolds. His construction emphasizes the analogy with the Kodaira-Thurston example of non-Kähler symplectic surfaces. In this talk we will discuss the geometry of such manifolds: their submanifolds and algebraic reduction to P^n; and the deformation theory of them, which is quite similar to that of the hyperkähler case.


Famílias topologicamente completas de germes de campos de vetores holomorfos em $(\mathbb C^2,0)$

Expositor: Jean-François Mattei - Université de Toulouse
Qui 18 ago 2022, 15:30 - SALA 224Seminário de Folheações Holomorfas

Resumo: A palestra discutirá os trabalhos recentes arXiv:2105.12688, arXiv:2201.07479 escritos em colaboração com David Marín e Eliane Salem.


Um algoritmo de aprendizagem universalmente consistente com um erro monótono

Expositor: Vladimir Pestov - UFPB e uOttawa
Sex 19 ago 2022, 15:00 - SALA 232Centro Pi

Resumo: Vou apresentar uma solução, em afirmativo, de um problema em aberto desde 1996 sobre a existência de um algoritmo de aprendizagem com as propriedades em título (JMLR23(157):1−27, 2022). Um algoritmo (ou regra) de aprendizagem supervisionada é uma aplicação associando um classificador a cada amostra rotulada, predizendo os rótulos desconhecidos de todos os pontos. O erro de classificação é a probabilidade de associar um rótulo errado. Um algoritmo é chamado universalmente consistente se, qualquer que seja a lei de distribuição de dados rotulados, o erro de classificação converge para o erro menor possível (o erro de Bayes) no limite quando o tamanho da amostra cresce. Intuitivamente, quanto mais dados, menos o erro de classificação, mas todos os algoritmos conhecidos admitem situações onde o erro cresce temporariamente para alguns valores do tamanho. Vou descrever um algoritmo que possui a monotonicidade. Depois da pré-publicação do meu algoritmo, um grupo de pesquisadores (Bousquet, Daniely, Kaplan, Mansour, Moran, e Stemmer, arXiv:2202.05246 [cs.LG]) já estendeu o resultado mostrando que qualquer algoritmo consistente pode ser convertido em um algoritmo monótono. Vou discutir o resultado deles também.O modelo padrão de aprendizagem supervisionada é descrito, por exemplo, no meu livro do CMB'32 https://impa.br/wp-content/uploads/2022/03/32CBM07_eBook.pdf