Filtrar


Questões por página:
Uma das etapas fundamentais da Ciência de Dados é o tratamento dos dados, que podem com frequência apresentar incorreções, pela maneira como foram adquiridos em suas fontes. O tratamento de dados é, então, essencial para aprimorar a sua qualidade e corrigir possíveis desvios.
Dessa maneira, relacione os principais problemas que podem ser solucionados pelo tratamento de dados com as suas respectivas definições.

1. Enviesamento 2. Ruídos 3. Inconsistência 4. Redundância

( ) Ocorre quando existem alguns desvios dos valores verdadeiros, em geral por imprecisões existentes nos dispositivos que realizam a coleta dos dados.

( ) Ocorre quando dados repetem informações já presentes no conjunto obtido.

( ) Ocorre quando os dados não reproduzem bem a situação a ser analisada e produzem um modelo frequentemente preconceituoso.

( ) Ocorre quando atributos de dados são preenchidos de maneira incorreta, seja por engano ou com intenções fraudulentas, por exemplo.


Assinale a opção que indica a relação correta na ordem apresentada.
A Ciência de Dados é uma área multidisciplinar, que engloba conceitos de Matemática, Estatística e Computação.
Sobre os fundamentos da Ciência de Dados, assinale a alternativa que contém a afirmação correta.
A análise da complexidade de algoritmos é essencial para avaliar seu desempenho e eficiência, especialmente em cenários com grandes volumes de dados.
Assinale a opção que representa a complexidade O (n log n) mais comummente observada em algoritmos de ordenação eficientes.

Dado o seguinte trecho, construído em português, de um algoritmo estruturado:


Imagem associada para resolução da questão


Sendo x, k e z números reais, caso k=7 e z=2, o valor final impresso vai ser:

Considere os seguintes algoritmos, todos com complexidade assintótica O(n):


Algoritmo 1: executa uma iteração simples sobre uma lista de tamanho n.


Algoritmo 2: executa duas iterações simples sobre uma lista de tamanho n, uma após a outra.


Algoritmo 3: executa uma iteração simples sobre uma lista de tamanho n, mas a iteração interna realiza uma operação constante que leva t_C tempo.


Algoritmo 4: executa uma iteração sobre uma lista de tamanho n e, dentro dessa iteração, realiza uma operação constante k vezes, em que o tempo total das operações é k * t_D e(k * t_D > t_C).


Algoritmo 5: executa uma iteração simples sobre uma lista de tamanho n, mas a iteração interna realiza uma operação com complexidade O(1).


Qual dos algoritmos é menos eficiente em termos de tempo de execução, embora todos tenham a mesma complexidade assintótica O(n)?