Episodit
-
Erick Fonseca e Amanda Rassi conversam sobre análise sintática, a visão linguística, os parsers, suas aplicações e dificuldades.
Twitter: @testedeturing
Email: [email protected]
-
Neste episódio, Erick Fonseca conversa com Marcos Treviso sobre as questões de tentar entender e explicar as decisões de modelos computacionais cada vez mais complexos de NLP. Conversamos sobre explicabilidade, fidelidade, inteligibilidade, e os desafios que essa área já demonstra.
Alguns links interessantes sobre o assunto:
Um livro online sobre "Machine Learning Interpretável": https://christophm.github.io/interpretable-ml-book/interpretability.html Black Box NLP: um workshop anual de NLP dedicado a entender melhor os modelos neurais: https://blackboxnlp.github.io/ Um artigo discutindo o conceito de explicabilidade: The Mythos of Model Interpretability Um artigo trazendo ideias das ciências sociais para explicabilidade: Explanation in artificial intelligence: Insights from the social sciences -
Puuttuva jakso?
-
Neste episódio, Erick Fonseca conversa com Hugo Gonçalo Oliveira e Alexandre Rademaker sobre wordnets e recursos lexicais. Falamos sobre o que são, para que servem, e os desafios de tentar organizar todo o vocabulário de uma língua e mantê-lo atualizado.
Alguns dos recursos que citamos no episódio:
OpenWordnet-PT, a wordnet para a língua portuguesa com maior vocabulário e mais trabalho ativo: https://github.com/own-pt/openWordnet-PT Onto.pt, um recurso lexical criado de forma automática: http://ontopt.dei.uc.pt/Twitter: @testedeturing
Email: [email protected]
-
Neste episódio, Erick Fonseca conversa com José Camargo de Souza sobre tradução automática. Falamos sobre as técnicas da área, avaliação, aspectos práticos e suas particularidades.
Twitter: @testedeturing
Contato: [email protected]
-
Você disse: "Recolhe cimento de noz"?
Erick Fonseca conversa com Christopher Shulby neste episódio do Teste de Turing sobre as tecnologias de reconhecimento de voz, seus desafios e sucessos, e as diferenças em relação ao NLP de texto.
Twitter: @testedeturing
Contato: [email protected]
-
Neste episódio, falamos sobre modelos de NLP que têm revolucionado o estado-da-arte de várias aplicações de tecnologias da linguagem. Em particular, falamos do ELMo, BERT, GPT-2 e da avaliação no GLUE benchmark.
Biblioteca python de transformers, que facilita incluir o BERT ou GPT-2 no seu código: http://huggingface.co/transformers/
Anúncio original do GPT-2: https://openai.com/blog/better-language-models
Gerador de texto online com o GPT-2 (treinado só em inglês): http://talktotransformer.com
Post do Erick com o GPT-2 treinado na Wikipedia em português para gerar novos artigos: https://bit.ly/2sDT0kK
Twitter: @testedeturing
Contato: [email protected]
-
Nesse primeiro episódio do Teste de Turing, Erick Fonseca e Marcos Treviso falam sobre a história das tecnologias de linguagem, desde a década de 50 com os primórdios da tradução automática até as redes neurais artificiais modernas.
Passamos pelas principais inovações, decepções e divisores de água na história da área, explicadas de uma forma para qualquer leigo entender.
Twitter: @testedeturing
Contato: [email protected]