http://wiki.nosdigitais.teia.org.br/index.php?title=Especial:P%C3%A1ginas_novas&feed=atom&limit=50&offset=&namespace=0&username=&tagfilter=Pontão Nós Digitais - Páginas novas [pt-br]2024-03-29T13:22:01ZDe Pontão Nós DigitaisMediaWiki 1.39.0http://wiki.nosdigitais.teia.org.br/Stochastic_Processes_2022.2Stochastic Processes 2022.22023-08-16T18:57:38Z<p>V1z: arxiv of PE</p>
<hr />
<div>This is the main page of an undergraduate-level course in stochastic processes targeted at engineering students (mainly computer engineering and its interface with mechanical engineering), being taught remotely in 2022 (2021.2 period) at the Polytechnic Institute [http://pt.wikipedia.org/wiki/IPRJ IPRJ]/UERJ.<br />
<br />
Previous periods: [[Stochastic_Processes_2021_condensed|2021 condensed]]<br />
http://wiki.nosdigitais.teia.org.br/Stochastic_Processes<br />
[[Image:Mocap_transfer.png|right|250px|thumb|Recent application of [https://en.wikipedia.org/wiki/Gaussian_process Gaussian stochastic processes] for 3D motion capture transfer [http://openaccess.thecvf.com/content_cvpr_2017/papers/Boukhayma_Surface_Motion_Capture_CVPR_2017_paper.pdf (CVPR 2017)] ]]<br />
<br /><br />
<div><ul> <br />
<li style="display: inline-block;"> [[File:Sampling-motion-planning.png|thumb|none|x180px|Application to path planning for autonomos cars [https://natanaso.github.io/ece276b/ref/ECE276B_1_MC.pdf (see this)] ]] </li><br />
<li style="display: inline-block;"> [[File:Sampling-motion-planning2.png|thumb|none|x180px|Application to robot path planning with obstacles [https://natanaso.github.io/ece276b/ref/ECE276B_1_MC.pdf (see this)] ]] </li><br />
</ul></div><br />
<br />
== General Info ==<br />
* Instructor: prof. [http://rfabbri.github.io Ricardo Fabbri], Ph.D. Brown University<br />
* Meeting times: Tuesdays 1:20pm-3:10pm; Thursdays 1:20pm - 3:10pm (virtual schedule to be determined)<br />
* Chat: IRC #labmacambira for random chat<br />
<br />
=== Pre-requisites ===<br />
* Undergraduate-level mathematics and probability (will review as needed)<br />
* Desirable: Intermediate programming experience with any numerics scripting language such as Scilab, Python, R or Matlab. Knowing at least one of them will help you learn any new language needed in the course.<br />
<br />
=== Software ===<br />
The R programming language and data exploration environment will be used for learning, with others used occasionally. Students can also choose to do their homework in Python, Scilab, Matlab or similar languages. The R language has received growing attention, specially in the past couple of years, but it is simple enough so that the student can adapt the code to his preferred language. '''Students are expected to learn any of these languages on their own as needed, by doing tutorials and asking questions'''<br />
* [https://www.rstudio.com/products/rstudio/download/preview/ R studio]: recommended IDE for R.<br />
* [http://rich-iannone.github.io/DiagrammeR Diagrammer]: beautiful tool to draw and interact with graphs in R.<br />
<br />
== Approximate Content ==<br />
This year's course will focus on a '''modern''' approach bridging theory and practice.<br />
As engineers and scientists, you should not learn theory here without also considering broader applications. Recent applications in artificial intelligence, machine learning, robotics, autonomous driving, material science and other topics will be considered. These applications are often too hard to tackle at the level of this course, but having contact with them will help motivate the abstract theory. We will try to focus on '''key concepts''' and more realistic applications than most courses (that come from the 1900's), that will prompt us to elaborate theory.<br />
<br />
== Main Resources ==<br />
=== Textbooks ===<br />
Check out the moodle student shelf.<br />
<br />
==== Main book ==== <br />
[https://books.google.com.br/books/about/Introduction_to_Stochastic_Processes_wit.html?id=CQ2ACgAAQBAJ&redir_esc=y&hl=en ''Introduction to Stochastic Processes with R''], Robert Dobrow, 2016 (5 stars on Amazon) [[Image:Book-R.jpg|130px]]<br />
<br />
==== Additional books used in the course ====<br />
Learning stochastic processes will require aditional books, including more traditional ones:<br />
* ''Markov Chains: gibbs fields, monte carlo simulation and queues'', Pierre Bremaud<br />
* ''An Introduction to Stochastic Modeling'', Taylor & Karlin<br />
* ''Pattern Theory: The Stochastic Analysis of Real-World Signals'', David Mumford and Agnes Desolneux - the first chapters already cover many types of stochastic processes in text, signal and image AI [[Image:Mumford-book.jpg]]<br />
* My own machine learning and computational modeling book draft, co-written with prof. Francisco Duarte Moura Neto and focused on diffusion processes on graphs like PageRank. There is a probability chapter which is the basis for this course. We have many copies at [[IPRJ]]'s library.<br />
<br />
==== Other books to look at ====<br />
Basic probability and statistics<br />
* I recommend you review from the above books. They all include a review. But you might have to see:<br />
* ''Elementary Statistics'', Mario Triola (passed down to me by a great scientist and statistician)<br />
<br />
Interesting books<br />
* ''R for data science'', O'Reilly (#1 data science bestseller on Amazon) [[Image:R-oreilly.png|350px]]<br />
<br />
Machine Learning<br />
* ''Pattern Theory: From Representation to Inference'', Ulf Grenader<br />
<br />
=== Lectures ===<br />
Lectures roughly follow the sequence of our main book, with some additional material as needed. All necessary background will be covered as needed. Advanced material will be covered partly.<br />
<br />
==== Public Youtube Playlist (Portuguese) ====<br />
Prof. Fabbri's lectures are publically available online at:<br />
https://www.youtube.com/playlist?list=PL1tkMA9lsTiVw9PzRcxpUBN4aArh948sK<br />
<br />
Partial listing: <br />
<br />
* Aula 1 parte 1 Introdução ao Curso https://youtu.be/qTZkZ5y_MJc<br />
* Aula 1 parte 2 O que são Processos Estocásticos? https://youtu.be/hDVdjPTVJtw<br />
* Aula 1 parte 3 O que significa "estocástico"? https://youtu.be/xUSvDqRXAL4<br />
* Aula 1 parte 4 Formalismo e revisão de probabilidades https://youtu.be/pawQt7TtIf0<br />
* Aula 1 parte 5 Exemplos Iniciais https://youtu.be/L5zH-uSDejc<br />
* Aula 1 parte 6 Exemplos 2, Difusões https://youtu.be/tYD0ezDfYxM<br />
* Aula 2 parte 1 Revisão de Probabilidade parte 2 <br />
* Aula 2 parte 2 Revisão de Distribuições - Revisão de Probabilidade parte 3 https://youtu.be/admtZDT2iok<br />
* Aula 3 parte 1 Pagerank https://youtu.be/45wx3yZh7SI<br />
* Aula 3 parte 2 Grafos - Revisão https://youtu.be/cE834FfnnuY<br />
* Aula 4 parte 1 Cadeias de Markov e exemplo em Metástase do Câncer https://youtu.be/N0R83bBUSf8<br />
** Paper: Spatiotemporal progression of metastatic breast cancer: a Markov chain model highlighting the role of early metastatic sites., Newton, P., Mason, J., Venkatappa, N. et al., Nature npj Breast Cancer 1, 15018 (2015). https://doi.org/10.1038/npjbcancer.2015.18<br />
** Paper: A Stochastic Markov Chain Model to Describe Lung Cancer Growth and Metastasis<br />
Newton PK, Mason J, Bethel K, Bazhenova LA, Nieva J, et al. (2012) A Stochastic Markov Chain Model to Describe Lung Cancer Growth and Metastasis. PLOS ONE 7(4): e34637. https://doi.org/10.1371/journal.pone.0034637<br />
* Remaining lectures ongoing at: https://www.youtube.com/playlist?list=PL1tkMA9lsTiVw9PzRcxpUBN4aArh948sK<br />
<br />
==== Lecture Notes ====<br />
<br />
* Fabbri's lecture notes on long term markov chains (based on Dobrow's Chapter 3) [https://drive.google.com/file/d/1FVCbiH32Up4_NHzBLhuFd6tn0GN2FmX0/view?usp=sharing pdf]<br />
<br />
==== Tentative listing ====<br />
* Intro, overview of main processes and quick review<br />
* Markov Chains<br />
* Markov Chain Monte Carlo: MCMC<br />
* Poisson Process<br />
* Queue theory<br />
* Brownian Motion<br />
* Stochastic Calculus<br />
<br />
== Homework ==<br />
* All homework can be done in any language. Most are either in the R programming language or in Scilab/Matlab and Python.<br />
* If you do the homework in two different languages, you get double the homework grade (bonus of 100%)<br />
* Late homework will be accepted but penalized at the professor's will according to how late it is<br />
* '''All electronic material must be sent to the professors' email, with the string "[iprj-pe]" as part of the subject of the email. You will receive an automatic confirmation.'''<br />
<br />
=== Assignment 0 ===<br />
* Exercise 1.1 of the main book<br />
* Suggested due date: Before thursday of the 2nd week.<br />
<br />
=== Assignment 1 ===<br />
* Exercise 1 Ch1 of the Pattern Theory book by Mumford & Desolneux,<br />
''Simulating Discrete Random Variables'' (pp 51, 52, 53)<br />
* No need to read this book for this exercise. You will review discrete random variables in the context of Markov chains for natural language processing; this is basic for most AI bots nowadays. If you're curious about the applications, you can read the book chapter just for fun.<br />
* Suggested due date: Before Thursday of the 3rd week.<br />
<br />
=== Assignment 2: Exercise list for chapter 1 ===<br />
7 Exercises: 1.3, 1.5, 1.6, 1.7, 1.9, 1.10, 1.19<br />
* Suggested due date: at least 1 week before P1 (suggested)<br />
<br />
=== Assignment 3: Exercise list for chapter 2 ===<br />
11 Exercises: 2.1, 2.4, 2.6, 2.8, 2.9, 2.10, 2.12, 2.14, 2.15, 2.18<br />
Computer: 2.26<br />
* Due date: before P1 (suggested)<br />
<br />
=== Assignment 4: Exercise list for chapter 3 ===<br />
Exercises: 3.2, 3.5a-c, 3.10a-d, 3.16i-iv, 3.25a-b, 3.37, 3.58<br />
* Due date: before P1 (suggested)<br />
<br />
=== Assignment 5: Exercise list for chapter 5 (MCMC) ===<br />
4 Exercises: 5.1, 5.2, 5.5, 5.6<br />
* Due date: terca 5abr22 23:59<br />
<br />
=== Assignment 6: Exercise list for chapter 6 ===<br />
4 Exercises: 6.3, 6.4, 6.7, 6.8<br />
* Due date: Ter12abr22<br />
<br />
== Exams ==<br />
* '''P1:''' 22mar22<br />
* '''P2:'''' 16-18mai22 (escolher)<br />
* '''Final-Sub:''' 19-20mai22 (escolher)<br />
<br />
== Evaluation criteria ==<br />
See course plan on moodle, tab "Boas-vindas".<br />
<br />
== Awesome Links == <br />
* Course on robotic path planning with applications of stochastic processes: https://natanaso.github.io/ece276b/schedule.html<br />
* Paper: Markovian robots: minimal navigation strategies for active particles, Arxiv 2017<br />
* Paper: Stochastic processes in vision: from Langevin to Beltrami https://ieeexplore.ieee.org/document/937531/<br />
* Cool applications: https://math.stackexchange.com/questions/1543211/which-research-groups-use-stochastic-processes-and-or-stochastic-differential-eq<br />
* Paper: Building Blocks for Computer Vision with Stochastic Partial Differential Equations https://link.springer.com/article/10.1007/s11263-008-0145-5<br />
* Paper: Variational Bayesian Multiple Instance Learning with Gaussian Processes, CVPR 2017<br />
* Paper: Correlational Gaussian Processes for Cross-domain Visual Recognition, CVPR 2017<br />
* COPPE Sistemas curso CPS767 - 2021/1 - Algoritmos de Monte Carlo e Cadeias de Markov https://www.cos.ufrj.br/~daniel/mcmc/ playlist: https://www.youtube.com/watch?v=sDUaMoMkmGc&list=PLP0bYj2MTFcs8yyA-Y4GYNahJWiZk2iOu<br />
* Course pages for previous years: '''[[PE2020 (canceled)|2020/1a (Canceled due to COVID-19)]], [[PE2019|2019]], [[PE2018|2018]], [[PE2012|2012]]'''<br />
<br />
=== Neural Nets and Stochastic Processes ===<br />
<br />
* Generative Models for Stochastic Processes Using Convolutional Neural Networks, arxiv, pesquisadores brasileiros (USP)<br />
* Bayesian SegNet: Model Uncertainty in Deep Convolutional Encoder-Decoder Architectures for Scene Understanding, Cipolla et. al arxiv 2016<br />
<br />
== Keywords ==<br />
random fields, stochastic modeling, data science, queue theory, machine learning, poisson process, markov chains, Gaussian processes, Bernoulli processes, soft computing, random process, Brownian motion, robot path planning, artificial intelligence, simulation, sampling, pattern formation, signal processing, text processing, image processing, dimentionality reduction, diffusion, Markov Chain Monte Carlo MCMC, tracking, branching process, stochastic calculus, SDEs<br />
<br />
[[Category:Lab Macambira]] [[Category:IPRJ]]</div>V1zhttp://wiki.nosdigitais.teia.org.br/Algebra_LinearAlgebra Linear2023-08-14T17:22:53Z<p>V1z: /* Tarefas complementares */ revisao de teoria dos conjuntos</p>
<hr />
<div>Esta é a pagina principal de um curso de Álgebra Linear sendo ministrado em 2023/2 no [http://pt.wikipedia.org/wiki/IPRJ IPRJ]/[http://pt.wikipedia.org/wiki/IPRJ UERJ]. Trata-se de uma disciplina a nível de pós-graduação, útil como embasamento matemático para modelagem computacional, machine learning, métodos numéricos, e áreas afins.<br />
<br />
== Informacoes Gerais ==<br />
* Instrutor: prof. [http://rfabbri.github.io Ricardo Fabbri], Ph.D.<br />
* Periodo: 2023, segundo semestre, voltado ao Mestrado e Doutorado em Modelagem Computacional - Capes 6<br />
* Horario: Tercas e Quartas, 9:40-11:30am, sala 212<br />
<br />
=== Pre-requisitos ===<br />
* Teorico: Nenhum. Familiaridade com álgebra linear básica, geometria analítica e lógica matemática formal pode ser útil.<br />
<br />
== Avisos ==<br />
* Por email<br />
<br />
== Tarefas complementares ==<br />
=== Tarefa extra 0 (para a primeira aula da segunda semana) ===<br />
Estas tarefas têm como objetivo complementar o curso com motivações práticas<br />
* Ler Aula 1 Apostila da disciplina (apostila prof. Fabbri listada nas referencias)<br />
* Assistir videos introdutorios do curso relacionado ALN+ARN 2022 da graduação: <br />
# Motivacao dos cursos de Algebra Linear Numerica e Analise no Rn para computacao Prof Fabbri https://youtu.be/Tm5F2t3NriI<br />
# Continuacao do prof Francisco https://youtu.be/1o-pUSbkQK (video privado - adicione a letra g ao final da URL)<br />
=== Tarefa extra 0.1 (para a segunda aula da terceira semana) ===<br />
Revisao de teoria dos conjuntos: https://youtu.be/pawQt7TtIf0?t=777 (assistir 12:57min ate 17min).<br />
Compreender que o vazio esta contido em qualquer conjunto A, mas nao necessariamente pertence a A.<br />
<br />
=== Tarefa extra 2 (para a primeira aula da terceira semana) ===<br />
* Assistir ao vídeo da Notação Mestra de Variedades Diferenciáveis https://youtu.be/h22063QMIDo o qual permitirá compreensão do contexto não-linear onde a álgebra linear é aplicada.<br />
<br />
== Recursos Principais ==<br />
[[Arquivo:Ala2-olver-signature.png|200px|thumb|PDF do livro complementar, Applied Lienear Algebra, assinado pelos autores para prof. Fabbri|link=http://www-users.math.umn.edu/~olver/ala.html]]<br />
<br />
=== Bibliografia ===<br />
==== Livros Principais ====<br />
* [https://www.amazon.com/Linear-Algebra-2nd-Kenneth-Hoffman/dp/0135367972 Linear Algebra, Hoffman & Kunze, 2a. ed.]<br />
* [https://www.amazon.com/Linear-Algebra-Graduate-Texts-Mathematics-dp-1468494481/dp/1468494481 Linear Algebra, Greub, 4a ed.]<br />
<br />
==== Livros e apostilas complementares ====<br />
* [https://github.com/rfabbri/aln-book/raw/master/fabbri-lecture-notes-aln.pdf Apostila de Álgebra Linear Numérica de prof. Fabbri]<br />
* Excelente livro recente cobrindo partes deste curso, bem como para aplicacoes: Applied Linear Algebra, Peter J. Olver and Chehrzad Shakiban<br />
* Linear Algebra through Exterior Products - codigo fonte Tex disponivel https://github.com/winitzki/linear-algebra-book (ver pasta version-1.3-print para os pdfs): Trata-se de um livro que resume bem a proposta deste curso.<br />
<br />
=== Provas ===<br />
*P1: 27set23 <br />
*P2: 22nov23<br />
<br />
== Criterio de Avaliacao ==<br />
M = (P1 + P2)/2 <br />
<br />
== See also ==<br />
[[ALN|Curso de Algebra Linear Numerica de graduacao do IPRJ ]]<br />
<br />
[[Category:IPRJ]]<br />
[[Category:Lab Macambira]]</div>V1zhttp://wiki.nosdigitais.teia.org.br/Algebra_Linear_Numerica_2022Algebra Linear Numerica 20222023-06-17T01:53:08Z<p>V1z: arquivo de ALN 2022</p>
<hr />
<div>Esta é a página oficial do curso de Álgebra Linear Numérica (graduação) do [http://en.wikipedia.org/wiki/IPRJ IPRJ]/UERJ Nova Friburgo, contendo material potencialmente útil ao publico geral.<br />
* Links para os cursos de '''[[ALN2012|2012]]''', '''[[ALN2013|2013]]''', '''[[ALN2015|2015]]''', '''[[ALN2016|2016]]''', '''[[ALN2018|2018]]''' e '''[[ALN2019|2019]]'''<br />
<br />
= Informacao Basica =<br />
* Instrutor: [http://rfabbri.github.io prof. Ricardo Fabbri, Ph.D.]<br />
==Horario==<br />
Atualizado 2022<br />
* Segundas 9:40-12:20 Sala 217<br />
* Quintas 7:50-9:40 Sala 217<br />
Duvidas: agendar individualmente com o professor ou procura-lo na sala 110<br />
<br />
== Avisos ==<br />
* Por email<br />
* Tambem ver Moodle (caso seja usado)<br />
<br />
== Software ==<br />
* Usaremos o [[Scilab]] primariamente. Para explorar algoritmos de porte pequeno e médio com matrizes, as linguagens do tipo Lab (como Matlab, Scilab e Octave) são as mais simples, úteis e diretas.<br />
** Ver funcoes <tt>svd</tt>, <tt>sva</tt>, e '<tt>\</tt>' (barra invertida)<br />
* Python e Octave sao alternativas aceitaveis<br />
<br />
== Tarefas e Projetos ==<br />
<br />
As tarefas devem ser formatadas com notacao matematica adequada, preferencialmente em [[Latex]].<br />
<br />
'''Somente serao aceitos arquivos eletronicos no formato PDF ou outro formato aberto como .odt'''<br />
<br />
Quando a tarefa involver qualquer programacao, o aluno devera enviar o codigo fonte. O codigo junto com a documentacao devera estar dentro de um<br />
unico diretorio comprimido com .zip ou tar, com o nome do aluno, disciplina e data.<br />
<br />
Enviar todo email com a tag "ALNIPRJ" no subject para garantir recebimento.<br />
<br />
=== Tarefa 0 (para 03jul22) ===<br />
* Assistir videos introdutorios do curso relacionado ALN+ARN 2022: <br />
# Motivacao dos cursos de Algebra Linear Numerica e Analise no Rn para computacao Prof Fabbri https://youtu.be/Tm5F2t3NriI<br />
# Continuacao do prof Francisco https://youtu.be/1o-pUSbkQK (video privado - adicione a letra g ao final da URL)<br />
* Ler Aula 1 Apostila da disciplina (apostila prof. Fabbri listada nas referencias)<br />
* Professor ira escolher alunos para comentar em aula *parte por parte* do video, em especial discutiremos a opiniao do(a) aluno(a) sobre essas disciplinas no curso de computacao, e receber bonus<br />
<br />
=== Tarefa 1 (entrega 08jul22) ===<br />
* SVD + Scilab<br />
** Plotar circulo unitario<br />
** Escolha uma matriz A<br />
** Transformar cada ponto por A<br />
** '''SVD visual: visualizar os eixos e esticamento da transformacao efetuada por A'''. <br />
** Realizar SVD usando a funcao SVD propriamente dita<br />
** '''Analise a relacao dos eixos encontrados visualmente com as matrizes U e V.'''<br />
** Repetir com outras matrizes A, aleatorias e nao-aleatorias. Qual o poder de modelagem de matrizes na pratica que voce pode observar assim?<br />
** Digitar o resultado, preferencialmente em [[Latex]], e entregar por email ou impresso.<br />
<br />
=== Tarefa 2: Ajuste de curvas (entrega 14jul22) ===<br />
Uma das principais aplicações dos métodos numéricos de álgebra linear vistos em<br />
aulas consiste na solução de sistemas por mínimos quadrados. Isto, por sua vez,<br />
é muito útil para ajustar curvas algébricas (polinomiais) a dados experimentais,<br />
por exemplo: encontrar retas, círculos, ou outras cônicas que passam próximos de<br />
dado um conjunto de pontos.<br />
* Ajuste de reta (opcional - para aprendizado apenas)<br />
** simule a geração de um conjunto sintético de pontos "experimentais" ao longo de uma reta e os perturbe com a função <tt>rand()</tt> ao longo de cada coordenada<br />
** use a "barra invertida" '<tt>\</tt>' do Scilab para gerar a curva que mais se aproxima dos pontos gerados<br />
** plote seus resultados para diferentes intensidades de ruído<br />
* Ajuste de cônicas (obrigatorio)<br />
** simule a geração de um conjunto sintético de pontos "experimentais" ao longo de uma curva polinomial bi-dimensional de grau 2 (círculo, parábola, elipse..) e os perturbe com a função <tt>rand()</tt> ao longo de cada coordenada<br />
** use a "barra invertida" '<tt>\</tt>' do Scilab para gerar a curva que mais se aproxima dos dados gerados<br />
** plote seus resultados para diferentes intensidades de ruído<br />
<br />
=== Projeto de Reconhecimento de Faces ===<br />
<br />
<br />
==== Exemplo de Album com Algumas Faces (Facebook upload) ====<br />
[[Imagem:Album1.png|300px]]<br />
<br />
==== Exemplo de Faces detectadas, a serem reconhecidas no projeto (logo apos Facebook upload) ====<br />
[[Imagem:Album2-faces.png|300px]]<br />
<br />
==== Procedimento ====<br />
<br />
* Monte um grupo de colegas, de 2-3 pessoas, para fazer o trabalho: '''Definir ate 1a aula apos P1'''<br />
* Baixe este conjunto de bases de dados de faces: [https://github.com/rfabbri/recdev RecDev]<br />
* Inicie com a base de dados very-easy. Siga as instrucoes no README<br />
* Uma vez debugado seu reconhecedor, forneca uma taxa de acerto, usando validacao cruzada separando parte das fotos para treino, parte para teste, e fazendo uma media da taxa de acerto para varias particoes diferentes. Recomendo iniciar com o procedimento retirar 1 foto por pessoa para teste, e usar o restante para reconhecimento, e repetir o processo 10 vezes para comecar. O pseudocodigo fica assim:<br />
<br />
erro_medio := 0<br />
faca n vezes // n seria o numero de simulacoes, por exemplo, 10<br />
bd_treino := base de dados completa (todas as fotos)<br />
para cada pessoa p<br />
bd_treino := bd_treino menos uma foto aleatoria da pessoa p<br />
adicione a bd_teste essa foto aleatoria<br />
<br />
treine seu reconhecedor com a base de dados bd_treino<br />
erro_novo := calcule a taxa de erro testando o reconhecedor nas fotos em bd_teste<br />
erro_medio := erro_medio + erro_novo<br />
fim faca<br />
erro_medio = erro_medio/n<br />
mostre o erro medio<br />
bonus: mostre a matriz de confusao<br />
<br />
* Use essa validacao cruzada para melhorar seu reconhecedor. Melhore esse codigo para poder examinar os casos de erro, analise, escreva no seu relatorio sua analise, e tente procurar a fonte do erro e melhorar o reconhecedor.<br />
* Sera dada maior nota aos alunos que implementarem esse codigo com indices, sem precisar copiar as fotos na memoria para gerar bd_treino e bd_teste. Ao ler imagens, seu codigo tambem devera ser independente do numero de imagens.<br />
* Uma vez debugado seu reconhecedor e validacao cruzada, rode nas bases easy, medium, hard e extras/facebookfaces e extras/facebookfaces2. Relate seus resultados e dificuldades. Se nao rodar em alguma dessas, ou se o relatorio nao tiver resultados condizentes, a nota sera penalizada.<br />
* Recomendamos dividir o trabalho da seguinte forma: apos especificar a leitura da base de dados a partir dos arquivos e o formato da base de dados na linguagem, outro colega deve implementar a validacao cruzada.<br />
* Seu codigo deve funcionar para um numero de fotos diferentes por pessoa. Por exemplo, 5 fotos para a pessoa 1, e 3 fotos para a pessoa 2.<br />
* Pode assumir que as imagens sao 100x100<br />
* Codigo para ajudar no trabalho: Rotinas PCA em scilab [https://github.com/rfabbri/siptoolbox/blob/master/macros/sip_pca.sci sip_pca.sci], [https://github.com/rfabbri/siptoolbox/blob/master/macros/sip_pca_project.sci sip_pca_project.sci]. Use a seguinte rotina para aprender a usar este codigo: [https://github.com/rfabbri/siptoolbox/blob/master/macros/sip_pca_test.sce sip_pca_test.sce]<br />
* Fragmentos de codigo de anos anteriores (so pra ter uma ideia, o seu codigo devera ser muito melhor): [https://github.com/rfabbri/aln-src aln-src]<br />
<br />
==== Entrega do Trabalho ====<br />
<br />
O trabalho devera ser entrege nas seguintes partes:<br />
* Relatorio <br />
** '''Data de entrega:''' '''2 semanas antes da P2 até a meia-noite'''<br />
** Secoes Obrigatorias:<br />
*** Introducao<br />
*** Descricao clara do problema<br />
*** Descricao da implementacao<br />
*** '''Mais importante:''' Descricao do processo de desenvolvimento <br />
**** Experimentos, discussao, analise dos resultados e '''estudo detalhado dos casos de falha'''.<br />
*** Conclusao e ideias para trabalho futuro<br />
*** Cada membro do grupo deverá também escrever uma seção de, no mínimo, 2 páginas relatando sua contribuição e experiencia com o trabalho<br />
<br />
* Codigo<br />
** '''Data de entrega:''' '''1 semana antes da P2 até a meia-noite''' (melhoras podem ser entregues ate 3 dias antes da Pf)<br />
** Dividir a entrega do codigo em 2 partes:<br />
*** Codigo-fonte<br />
**** README devera incluir instrucoes detalhadas de como rodar o codigo<br />
**** Calcular a taxa de acerto do algoritmo em validacao cruzada<br />
** melhorias podem ser entregues juntos ao relatorio, desde que, no minimo, o codigo esteja fornecendo uma taxa de acerto e rodando nas bases easy e very-easy<br />
<br />
'''Aviso:''' <br />
* Criterio de avaliacao: A nota de trabalho sera dada com base na qualidade do relatorio<br />
* '''Bonus #1:''' O grupo que tiver melhor performance obtera nota 10.0 no trabalho. O segundo melhor grupo obtera um bonus de 2 pontos no trabalho.<br />
** A taxa de reconhecimento sera medida em uma base elaborada pelo professor durante a correcao, sem o conhecimento previo do aluno. A base de treinamento sera entregue ao aluno no mesmo formato da base <tt>recdev</tt> acima, no '''a definir (era: dia 17Mai21)'''<br />
** A performance para bonus sera medida na presenca do professor, durante processo de correcao em horario de aula no '''a definir (era: dia 18Mai21)''', usando-se uma base de teste fornecida no ato. O formato da base de teste sera da seguinte forma:<br />
*** arquivos no formato <pre><id_pessoa>-<id_foto>.jpg</pre> todas na mesma pasta<br />
*** Por exemplo, 17-3.jpg seria pessoa 17, foto numero 3 da base de teste<br />
*** Este id nao tem relacao com o id usado na base de treino<br />
*** Se houver mais de uma foto teste por pessoa, seu sistema pode usar todas essas fotos para tentar identificar a pessoa<br />
*** Tarefa do seu algoritmo: dadas diversas fotos de uma mesma pessoa desconhecida, do tipo: <pre>17-1.jpg, 17-2.jpg, 17-3.jpg, 17-4.jpg, 17-5.jpg</pre> Qual o id real dessa pessoa 17 na base de treino? Serao apresentadas varias pessoas, e o grupo que acertar mais vence. Nao sera permitido adaptacao do codigo, exceto para mostrar a pasta de teste.<br />
* O relatorio de cada aluno tambem devera conter um relato da participacao na competicao do bonus, e ira contar na nota do trabalho mesmo se nao ganhar o bonus<br />
<br />
=== Projeto: Análise de Redes Sociais ===<br />
<br />
Neste projeto o aluno coletara uma rede social, por exemplo a rede de amigos do<br />
facebook, ou uma rede de troca de mensagens de email, e fara uma análise dos nós mais importantes em relação a PageRank e<br />
outras características de difusão na topologia do grafo. Isso poderia ser util,<br />
por exemplo, para ordenar a sua lista de amigos por ordem de amigo mais<br />
"influente", ou para identificar maneiras de aumentar sua conexao<br />
na rede (por exemplo, numa rede de negocios).<br />
<br />
Os passos do projeto sao:<br />
<br />
# Obter sua rede social no formato GML<br />
## Redes de troca de emails: http://hera.ethymos.com.br:1080/redes/python/autoRede/escolheRedes.php<br />
## Sua rede amigos do facebook: http://snacourse.com/getnet/<br />
# Visualizar a rede no software Gephi<br />
## Baixe o Gephi em https://gephi.org<br />
## Realize o tutorial basico do Gephi (do menu Help)<br />
## Abrir o arquivo GML no Gephi<br />
# Obter a matriz de Markov dessa rede no Scilab, considerando pesos nas arestas como no algoritmo PageRank<br />
## Exportar a rede como matriz de adjacencias no Gephi (aprender como fazer)<br />
# Calcular o autovetor dominante (PageRank) no Scilab<br />
# Interpretar o que isso pode vir a dizer sobre a importância relativa dos seus amigos na rede de amizades<br />
## Por exemplo, a pessoa tem muitos amigos que tem muitos amigos<br />
## O que um caminhante aleatório ou quer dizer aqui? Discuta o que um processo de difusao significaria na rede de amizades. Talvez uma rede de indicacoes?<br />
## Invente alguma outra medida nessa rede da importancia relativa dos nos<br />
<br />
<br />
==== Links interessantes ====<br />
* veja nossas aulas sobre grafos e matrizes<br />
* labmacambira.sf.net/redes<br />
* [[ARS| Análise de redes sociais]]<br />
<br />
== Conteudo aproximado ==<br />
* Foco: [http://pt.wikipedia.org/wiki/SVD SVD]/Singular Value decomposition, auto-valores/auto-vetores, [http://pt.wikipedia.org/wiki/PCA PCA/Principal Component Analysis], demais decomposicoes matriciais.<br />
<br />
<br />
== Recursos principais ==<br />
* [https://github.com/rfabbri/aln-book/raw/master/fabbri-lecture-notes-aln.pdf Apostila prof. Fabbri]<br />
* Excelente livro recente cobrindo partes deste curso: Applied Linear Algebra, Peter J. Olver and Chehrzad Shakiban<br />
[[Arquivo:Ala2-olver-signature.png|200px|thumb|PDF assinado pelos autores para prof. Fabbri|link=http://www-users.math.umn.edu/~olver/ala.html]]<br />
* Livro classico: "Matrix Computations", Gene Golub et. al. (inventor do algoritimo mais usado de SVD).<br />
[[Arquivo:Golub-vanloan-thumb.jpg|link=https://www.amazon.com/Computations-Hopkins-Studies-Mathematical-Sciences/dp/1421407949]]<br />
<br />
=== Outros Recursos ===<br />
<br />
* Nao ha livro texto no nivel desta disciplina. mas veja a bibliografia do curso de Analise Matricial da Pos:<br />
** Outro livro: "Numerical Matrix Analysis", Ilse Ipsen http://www2.alibris-static.com/isbn/9780898716764.gif<br />
** Veja tambem os livros do Gilbert Strang.<br />
* [http://www.lems.brown.edu/~rfabbri/stuff/fabbri-coordinate_changes.pdf Notas sobre sistemas de coordenadas, matriz relativa a dadas bases, rotacoes (pdf)]<br />
<br />
=== Aulas: Listagem parcial===<br />
<br />
* Primeiras aulas: overview, SVD, PCA, aplicacoes, notacao, bases vs sistemas de coordenadas<br />
* [http://www.lems.brown.edu/~rfabbri/stuff/aula-rotacoes-sistemas-coordenadas-20120322.odp Rotacoes e Sistemas de Coordenadas]<br />
* [http://www.lems.brown.edu/~rfabbri/stuff/aula-rotacoes-sistemas-coordenadas-20120404.odp Rotacoes e Sistemas de Coordenadas]<br />
* [http://www.lems.brown.edu/~rfabbri/stuff/aula-svd-02.odp SVD]<br />
* [http://www.lems.brown.edu/~rfabbri/stuff/informal-lecture-notes-numerical_linear_algebra-cardo_fabbri-whiteboard-20120627.pdf Aula Informal projeto e relatorio eigenfaces/PCA]<br />
* [http://www.lems.brown.edu/~rfabbri/stuff/informal-lecture-notes-numerical_linear_algebra-cardo_fabbri-whiteboard-20120704.pdf Aula Informal PCA]<br />
* [http://wiki.nosdigitais.teia.org.br/Imagem:Aula-grafos-matrizes-201306.pdf Grafos e matrizes, cadeias de Markov, laplaciano de grafos]<br />
* [http://wiki.nosdigitais.teia.org.br/Imagem:Aula-pagerank.pdf PageRank e outras tecnicas de Ranking, reducao de dimensionalidade, e machine learning]. Ver tambem [http://www.ams.org/samplings/feature-column/fcarc-pagerank]<br />
<br />
==== Para referencia: aulas de Analise Matricial: listagem parcial ====<br />
* [http://www.lems.brown.edu/~rfabbri/stuff/01-analise_matricial-2012-livro_cap01.odp Matrizes, Notacao e Conceitos Elementares] (~cap 1 livro)<br />
* [http://www.lems.brown.edu/~rfabbri/stuff/02-analise_matricial-2012-livro_cap02_parte1.odp Sensitividade, Erros e Normas - parte 1] (cobre cap 2 livro ate normas de matrizes)<br />
<br />
=== Provas ===<br />
* '''P1:''' 08ago22 Provas anteriores: [http://wiki.nosdigitais.teia.org.br/Imagem:P1-aln.pdf 2012]<br />
* '''P2:''' seg12set22<br />
* '''Final-Sub:''' seg26set22<br />
<br />
=== Criterio de Avaliacao ===<br />
* '''Trabalhos:''' 20% da media - o ultimo trabalho (reconhecimento) valera a metade disto, ou seja, 10% da media.<br />
* '''Bonus de participacao:''' 10%-20% a nota total trabalhos e tarefas T, ''adicionais''. A criterio do professor, incluindo presenca em aula, participacao em aula, esforco de realizar tarefas excelentes e ir alem do esperado.<br />
* O criterio final ficou (favor avisar se precisar adicionar detalhes ou corrigir no caso de erro/discrepancia):<br />
<br />
<small><br />
M_p = (P1 + P2)/2 <br />
M = 0.8*M_p + 0.2*T (atualizado de 10% para 20% com acordo dos alunos), onde T é a nota dos trabalhos<br />
Se M >= 5, passou --> M (''facilitando: considere T=10,0 no M `a esquerda desta desigualdade aqui'')<br />
prova final - faz quem quiser, mas combinamos que teria de seria feita por quem obtiver M < 5 <br />
- facilitando: considere T=10,0 e calcule uma media M otimista, para ver se precisa fazer a final. ou seja:<br />
<br />
- Se M_p < 6.25, precisa fazer final! *************************<br />
<br />
M_f = 0.5*(M + P_f) = 0.5*(0.8M_p + 0.2*T + P_f) = 0.2*P1 + 0.2*P2 + 0.5*P_f + 0.1*T<br />
Se M_f >= 5, passa --> M_f<br />
Sub: repoe menor de P1, P2, P_f (apenas se alguem faltou alguma prova ou quiser melhorar nota - mas quem entregar ira substituir)<br />
M_sub = media com sub<br />
Se M_sub >= 5, passou --> M_sub<br />
<br />
Adendo (em acordo com os alunos): a M_sub = M_f pois sera considerada a mesma prova. Quem for usar a prova como Sub ira substituir a nota independentemente do resultado.<br />
</small><br />
<br />
== Awesome Links ==<br />
* Curso moderno e basico on-line da Brown University sobre algebra linear e aplicacoes [http://coursera.org/course/matrix] <br />
* Curso on-line da University of Texas at Austin, Linear Algebra - Foundations to Frontiers: Learn the theory of linear algebra hand-in-hand with the practice of software library development [https://www.edx.org/course/utaustin/ut-5-01x/linear-algebra-foundations/1162]<br />
=== Machine learning com Algebra Linear Numerica ===<br />
* [https://en.wikipedia.org/wiki/Non-negative_matrix_factorization Non-negative matrix factorization]<br />
* [https://scikit-learn.org/stable/auto_examples/decomposition/plot_incremental_pca.html Incremental PCA]<br />
<br />
[[Category:IPRJ]]<br />
[[Category:Lab Macambira]]</div>V1z