Nehodí se? Vůbec nevadí! U nás můžete do 30 dní vrátit
S dárkovým poukazem nešlápnete vedle. Obdarovaný si za dárkový poukaz může vybrat cokoliv z naší nabídky.
30 dní na vrácení zboží
A geraçăo de grandes volumes de dados, também conhecidos com Big Data, vem se tornando muito comum em ambientes acadęmicos e corporativos. Nesse contexto, é essencial que as aplicaçőes que processam Big Data explorem da melhor forma possível as infraestruturas distribuídas de alto desempenho, possivelmente presentes nesses ambientes, através da implantaçăo dessas aplicaçőes sobre sistemas de computaçăo intensiva de dados tais como o popular Hadoop. No que diz respeito ŕ configuraçăo desta plataforma, observa-se uma quantidade considerável de parâmetros que devem ser ajustados e os quais os usuários normalmente năo tęm noçăo de como fazę-los, resultando em um Hadoop mal configurado e com um desempenho aquém do seu real potencial. Este trabalho propőe um processo para auxiliar a configuraçăo eficiente do Hadoop através do uso de técnicas empíricas que utilizam subespaços de parâmetros dessa plataforma, e da aplicaçăo de análises estatísticas para verificar a relevância dos mesmos, extraindo os valores otimizados em funçăo do subespaço de parâmetros considerado.