[2.000] Sintetize o artigo Pennock (2004) em suas … sendo de fundamental importância que esta...

21
[2.000] Sintetize o artigo Pennock (2004) em suas palavras. O artigo aponta o que deveriam ser abordados nos projetos de pesquisa de campo, porém os modelos estatísticos mais utilizados são os clássicos agronômicos. Geralmente os projetos de pesquisa, são elaborados sem levar em consideração os modelos estatísticos, sendo esses escolhidos ou adaptados ao projeto após o mesmo ter sido implantado. O artigo nos mostra que primeiro devemos apontar a questão a ser pesquisada e verificar a viabilidade do projeto e com base nesses dados escolher o modelo estatístico, para depois aplica-lo. tudo bem que em suas linhas gerais está correto, mas sumarizou tanto que perdeu um mundo de informação [2.000] Discuta a diferença entre as hipóteses estatística e científica, considerando em particular as consequências desta diferença. A hipótese cientifica tem a finalidade de propor explicações para certos fatos, ou seja, é uma suposição que antecede à constatação dos fatos e serve como guia para a linha de investigação da pesquisa. Ao se lançar uma hipótese podemos obter resultados bastante diferentes das hipóteses admitidas, devido a isso, para cada hipótese cientifica testada haverá duas hipóteses estatísticas, a hipótese de nulidade (H0) e a hipótese alternativa (H1). A hipótese de nulidade determina a ausência do efeito de tratamento, ou seja, que não existe diferença significativa entre os tratamentos, ela sempre será o contrario do que se deseja testar, já a hipótese alternativa determina a presença do efeito de tratamento, ou seja, indica a existência de diferença significativa entre os tratamentos. A hipótese de nulidade pode ser aceita ou rejeitada, quando rejeitada se aceita a outra automaticamente, demostrando que pelo menos um tratamento deferiu dos outros. ok. [0.500] Discuta os principais tipos de testes de hipóteses, relacionando em particular com o tipo de informação que podemos tirar deles Os testes de hipóteses são necessários para que o pesquisador decida sobre a aceitação ou rejeição de uma determinada hipótese. Teste F- Tem por finalidade comparar estimativas de variância. Ele é usado para comparar variação dos tratamentos com o acaso. Quanto maior o valor do F, maior será a chance da variância ser do acaso. O valor do F calculado é comparado com o F tabelado sendo que quando, o F calculado for maior que o tabelado há diferença significativa entre os tratamentos, quando o F calculado for menor que o tabelado não existe diferença significativa entre os tratamentos. Teste t- Serve para testar médias de dois tratamentos ou médias de dois grupos de tratamentos. As comparações feitas pelo teste t devem ser escolhidas antes de serem examinados os dados, devem ser no máximo ,igual ao número de grau de liberdade do tratamento, e ele exige que as comparações definidas sejam contrastantes ortogonais. Teste de Tukey- É usado na análise de variância para comparar todos e qualquer contraste entre duas médias de tratamentos. É o teste de comparação de medias de tratamento mais usado na experimentação agronômica, por ser bastante rigoroso e de fácil aplicação. Quando o teste F não for significativo, é norma geral não se aplicar o teste de Tukey ou qualquer teste de comparação de médias de tratamento ( se estiver próximo da significância é aconselhável aplicação). Teste de chi-quadrado- O objetivo desse teste ´e verificar se existe independência entre duas variáveis medidas nas mesmas unidades experimentais. A interpretação do F está exatamente o contrário do que realmente acontece. Como F é variação do tratamento dividido pela variação do acaso, quanto maior o seu valor, menor a chance da diferença entre os tratamentos ser devida ao acaso. Os testes t e Tukey estão essencialmente corretos, mas o uso mais comum do qui- quadrado é verificar se a proporção que ocorreu é a mesma que havia sido inicialmente prevista com base em algum ponto teórico, como uma proporção mais ou menos igual de nascimentos de machos e fêmeas. [0.500] Relacione princípios experimentais, variação do acaso, tamanho do experimento e grau de confiança que o pesquisador pode ter em suas afirmativas. Os princípios experimentais (repetição, casualidade e controle local) são responsáveis pela confiabilidade dos resultados obtidos na pesquisa visto que elas estão relacionadas com a redução do erro experimental, quanto maior repetição, casualidade e controle local menor será a variação do acaso e consequentemente maior será o grau de confiança. O tamanho de um experimento pode ser caracterizado pelo numero de tratamentos que serão testados pelo pesquisador, e quão for maior a presença destes, maior será o controle dos efeitos do acaso. Desta forma, a aplicação dos princípios experimentais é importante, pois aumenta o poder dos testes, aumentando assim o grau de confiança do pesquisador nos resultados obtidos no experimento. o princípio é casualização, não casualidade. Não tenho idéia do que você quer dizer com quanto maior a presença destes (tratamentos), maior será o controle dos efeitos do acaso. Isto não faz o menor sentido lógico, pelo menos para mim. O resto da resposta está extremamente generalizada. [0.000] Discuta os princípios experimentais e sua importância, incluindo formas de aplicação Para que uma pesquisa seja desenvolvida, devem-se levar em consideração as variações ambientais que ocorrem, sendo de fundamental importância que esta seja controlada para que não comprometa o experimento. Sendo necessária a utilização de três princípios: a repetição a qual indica quantas vezes o mesmo tratamento se repete, a prova disso é o erro padrão da média, que diminui a medida que aumenta o tamanho da amostra,

Transcript of [2.000] Sintetize o artigo Pennock (2004) em suas … sendo de fundamental importância que esta...

[2.000] Sintetize o artigo Pennock (2004) em suas palavras. O artigo aponta o que deveriam ser abordados nos projetos de pesquisa de campo, porém os modelos

estatísticos mais utilizados são os clássicos agronômicos. Geralmente os projetos de pesquisa, são elaborados sem levar em consideração os modelos estatísticos, sendo esses escolhidos ou adaptados ao projeto após o mesmo ter sido implantado. O artigo nos mostra que primeiro devemos apontar a questão a ser pesquisada e verificar a viabilidade do projeto e com base nesses dados escolher o modelo estatístico, para depois aplica-lo.

tudo bem que em suas linhas gerais está correto, mas sumarizou tanto que perdeu um mundo de informação [2.000] Discuta a diferença entre as hipóteses estatística e científica, considerando em particular as

consequências desta diferença. A hipótese cientifica tem a finalidade de propor explicações para certos fatos, ou seja, é uma suposição que

antecede à constatação dos fatos e serve como guia para a linha de investigação da pesquisa. Ao se lançar uma hipótese podemos obter resultados bastante diferentes das hipóteses admitidas, devido a isso, para cada hipótese cientifica testada haverá duas hipóteses estatísticas, a hipótese de nulidade (H0) e a hipótese alternativa (H1). A hipótese de nulidade determina a ausência do efeito de tratamento, ou seja, que não existe diferença significativa entre os tratamentos, ela sempre será o contrario do que se deseja testar, já a hipótese alternativa determina a presença do efeito de tratamento, ou seja, indica a existência de diferença significativa entre os tratamentos. A hipótese de nulidade pode ser aceita ou rejeitada, quando rejeitada se aceita a outra automaticamente, demostrando que pelo menos um tratamento deferiu dos outros.

ok. [0.500] Discuta os principais tipos de testes de hipóteses, relacionando em particular com o tipo de

informação que podemos tirar deles Os testes de hipóteses são necessários para que o pesquisador decida sobre a aceitação ou rejeição de uma

determinada hipótese. Teste F- Tem por finalidade comparar estimativas de variância. Ele é usado para comparar variação dos tratamentos com o acaso. Quanto maior o valor do F, maior será a chance da variância ser do acaso. O valor do F calculado é comparado com o F tabelado sendo que quando, o F calculado for maior que o tabelado há diferença significativa entre os tratamentos, quando o F calculado for menor que o tabelado não existe diferença significativa entre os tratamentos. Teste t- Serve para testar médias de dois tratamentos ou médias de dois grupos de tratamentos. As comparações feitas pelo teste t devem ser escolhidas antes de serem examinados os dados, devem ser no máximo ,igual ao número de grau de liberdade do tratamento, e ele exige que as comparações definidas sejam contrastantes ortogonais. Teste de Tukey- É usado na análise de variância para comparar todos e qualquer contraste entre duas médias de tratamentos. É o teste de comparação de medias de tratamento mais usado na experimentação agronômica, por ser bastante rigoroso e de fácil aplicação. Quando o teste F não for significativo, é norma geral não se aplicar o teste de Tukey ou qualquer teste de comparação de médias de tratamento ( se estiver próximo da significância é aconselhável aplicação). Teste de chi-quadrado- O objetivo desse teste ´e verificar se existe independência entre duas variáveis medidas nas mesmas unidades experimentais.

A interpretação do F está exatamente o contrário do que realmente acontece. Como F é variação do tratamento dividido pela variação do acaso, quanto maior o seu valor, menor a chance da diferença entre os tratamentos ser devida ao acaso. Os testes t e Tukey estão essencialmente corretos, mas o uso mais comum do qui-quadrado é verificar se a proporção que ocorreu é a mesma que havia sido inicialmente prevista com base em algum ponto teórico, como uma proporção mais ou menos igual de nascimentos de machos e fêmeas.

[0.500] Relacione princípios experimentais, variação do acaso, tamanho do experimento e grau de confiança

que o pesquisador pode ter em suas afirmativas. Os princípios experimentais (repetição, casualidade e controle local) são responsáveis pela confiabilidade

dos resultados obtidos na pesquisa visto que elas estão relacionadas com a redução do erro experimental, quanto maior repetição, casualidade e controle local menor será a variação do acaso e consequentemente maior será o grau de confiança. O tamanho de um experimento pode ser caracterizado pelo numero de tratamentos que serão testados pelo pesquisador, e quão for maior a presença destes, maior será o controle dos efeitos do acaso. Desta forma, a aplicação dos princípios experimentais é importante, pois aumenta o poder dos testes, aumentando assim o grau de confiança do pesquisador nos resultados obtidos no experimento.

o princípio é casualização, não casualidade. Não tenho idéia do que você quer dizer com quanto maior a presença destes (tratamentos), maior será o controle dos efeitos do acaso. Isto não faz o menor sentido lógico, pelo menos para mim. O resto da resposta está extremamente generalizada.

[0.000] Discuta os princípios experimentais e sua importância, incluindo formas de aplicação Para que uma pesquisa seja desenvolvida, devem-se levar em consideração as variações ambientais que

ocorrem, sendo de fundamental importância que esta seja controlada para que não comprometa o experimento. Sendo necessária a utilização de três princípios: a repetição a qual indica quantas vezes o mesmo tratamento se repete, a prova disso é o erro padrão da média, que diminui a medida que aumenta o tamanho da amostra,

aumentando assim a precisão do estimador. Este principio é utilizado quando se sabe a variação do ambiente, e tenta minimiza-los através do aumento das repetições. Para não favorecer um tratamento em relação ao outro se faz o uso da casualidade que tem por finalidade propiciar a todos os tratamentos a mesma probabilidade de serem designados a qualquer lugar das unidades experimentais. Fazendo com que a casualização assegure a importância do erro experimental. Já o controle local é aplicado para que ambientes heterogêneos sejam divididos em subambientes homogêneos e tornar o delineamento experimental mais eficiente, devido a redução do erro experimental.

extremamente confuso, e em vários pontos errado. A repetição não é utilizada quando se sabe a variação do ambiente, mas sim para medir esta variação. O segundo princípio não é casualidade, mas sim casualização. A única parte certa é a referente ao controle local.

2.200] Relacione princípios experimentais, variação do acaso, tamanho do experimento e grau de

confiança que o pesquisador pode ter em suas afirmativas. Uma pesquisa tem como objetivo a solução de um problema observado em uma coleção de unidades que

compartilham características comuns (população). Como geralmente uma população é constituída por um elevado número de elementos, é mais viável (para fins de pesquisa) que haja uma escolha de unidades que irão representar a população (amostra). O número de amostras vai depender do tamanho da população, mas sabe-se que quanto maior o número de indivíduos amostrados, maiores são as chances de uma amostragem mais fiel a realidade, levando-se em conta a heterogeneidade da população. Entretanto, existe em todos os dados obtidos o efeito de fatores não controlados, que dificilmente podem ser conhecidos individualmente e alteram, em diferentes níveis, os resultados obtidos. Essas variações são chamadas variação de acaso. Para diminuir os efeitos danosos desse tipo de variação, o pesquisador deve fazer uso dos princípios experimentais (repetição, casualização e controle local). Eles são essenciais para a detecção de efeitos relevantes dos fatores experimentais de modo sensível e não tendencioso, ou seja, permitirão ao pesquisador ter maior certeza se as diferenças obtidas como resposta têm ou não valor, se são ou não significativas. Um pesquisador que levar em conta todos esses pontos terá maior exatidão nos seus dados, representados pelo maior grau de confiança.

bem sintetizado, ligando os conceitos adequadamente 02.000] Discuta os princípios experimentais e sua importância, incluindo formas de aplicação Em um experimento, a variação nas respostas pode ser atribuída tanto à variação inerente à população

quanto à variação devido o acaso. A confusão na determinação da origem da variação pode dificultar a interpretação dos dados, e para aumentar a confiabilidade dos dados obtidos, o pesquisador deve se utilizar dos princípios experimentais: repetição, casualização e controle local. O primeiro tem papel fundamental no cálculo do erro experimental, além de dar maior representatividade à amostra, contribui para uma estimativa não tendenciosa da validade dos resultados. O segundo (casualização) diz respeito ao procedimento de controle amostral para características que não podem ser manipuladas e/ou previstas pelo pesquisador, de modo a evitar resultados tendenciosos ou confusão entre os efeitos da casualidade e dos tratamentos. Caso haja diferenças que possam favorecer as respostas aos tratamentos, a casualização garante que todos os tratamentos tenham a mesma probabilidade de serem favorecidos ou não. Um exemplo muito simples do processo de casualização é a alocação aleatória das unidades de tratamento. Já no controle local, as unidades amostrais são divididas em grupos a partir de características comuns. Através do controle local, pode-se aumentar a homogeneidade dentro dos grupos e aumentar a heterogeneidade entre os grupos. Um controle eficiente contribui para a precisão das inferências, conferindo maior sensibilidade ao pesquisador no momento de detectar as diferenças nos efeitos dos tratamentos. Vale lembrar que só é possível fazer o controle local quando o pesquisador identifica a heterogeneidade do meio e consegue traçar estratégias para minimizá-las. De modo geral, pode-se dizer que, com a repetição, sabe-se a variância do erro experimental, este por sua vez é reduzido pelo controle local. Já a casualização não tem efeito direto sobre o erro experimental, mas influi na validação do resultado, pois diminui as chances de uma avaliação tendenciosa.

ok, mas apelou um pouco para o estatiquês [0.000] Discuta a afirmativa: "Toda descrição de uma amostra de dados precisa de pelo menos dois

valores", e justifique sua posição A afirmativa está incorreta. A escolha do tipo de medida descritiva e quantas medidas serão utilizadas na

descrição dependem do conjunto de dados disponíveis e do objetivo da descrição. As estatísticas descritivas podem ser de posição (média, moda e mediana), ou de variação (amplitude, variância, desvio padrão e coeficiente de variação). O primeiro tipo indica a posição que um conjunto ocupa na escala de valores. Já as medidas de variação descrevem, como o próprio nome sugere, a variabilidade de um conjunto de dados, sendo mais amplamente utilizadas em estudos quantitativos.

primeiro, a resposta indica que provavelmente você não entendeu bem a pergunta. Segundo, como poderiamos medir a variação do acaso a partir de um único ponto, que por definição não poderia variar?

[0.000] Discuta os principais tipos de testes de hipóteses, relacionando em particular com o tipo de

informação que podemos tirar deles A “hipótese de pesquisa” é a fundamentação teórica por trás do experimento. Visa uma solução ou resposta

a algum problema, favorecendo a evolução científica. Entretanto, para propor uma nova teoria, o pesquisador precisa encontrar evidências de que ela é correta. Daí surge a “hipótese estatística”, que se subdivide em “hipótese nula”

(H0) (a negativa da hipótese de pesquisa), e a “hipótese alternativa” (Ha). Por exemplo, o pesquisador acredita que o adubo X aumenta a produtividade (hipótese de pesquisa), então ele propõe que “X não aumenta a produtividade” (H0). H0 pode ser aceita ou rejeitada; caso seja rejeitada, o pesquisador assume a Ha: “houve diferença estatística na produtividade”.

a pergunta não foi sobre a diferença entre as hipóteses científica e estatística, mas sim sobre os tipos de testes de hipóteses, ou seja, sua resposta não tem ligação com a pergunta

[4.400] Sintetize o artigo Pennock (2004) em suas palavras. Pennock em seu artigo categorizou e discutiu os modelos de amostragem utilizados nos estudos de campo.

O autor também lembra que a pesquisa pode ser dividida entre aquelas cujo objetivo é o avanço do conhecimento através da publicação nos meios científicos, e aquelas que atendem aos objetivos do setor privado. Foram descritas, ao todo, 10 categorias de pesquisa, sendo elas: 1- Pesquisa de contaminantes: avaliação da extensão da contaminação e/ou remediação dos danos. Conta com amostragens intencionais, baseadas na experiência do pesquisador, para obtenção das estimativas. 2- Pesquisa do solo: fornece resumos descritivos das principais propriedades do solo. Nesses estudos, a amostragem intencional é complementada com a amostragem probabilística, permitindo a seleção e interpretação fundamentada do perfil. 3- Estudos de monitoramento: avaliação da situação atual e tendências dos diferentes recursos naturais. Nesse ramo, há grande variedade de esquemas amostrais, o que pode dificultar a generalização dos resultados obtidos. 4- Estudos pedológicos ou geomorfológicos: foco nos processos que formaram as propriedades do solo. As observações de campo são combinadas com análises laboratoriais, mas raramente há uma interpretação única. 5- Estudos geoestatísticos/pedométricos: quantificação do padrão espacial das propriedades do solo. Faz-se uso de do modelo baseado em amostragens estratégicas, onde o processo pedogenético é modelado através de um processo estocástico. 6- Estudos de perturbação: focam nas respostas das características populacionais à perturbação, usando a análise das séries temporais. 7- Estudos de padrão: avaliações dos padrões espaciais e/ou temporais das propriedades. São feitos ensaios usando pontos padronizados, a partir dos quais são elaborados moldes para testar a variabilidade. 8- Estudos de modelagem de apoio: o maior exemplo é o desenvolvimento de funções de pedotransferência. Os esquemas amostrais se baseiam em projetos de manipulação muito elaborados, traçando comparações entre os grupos. 9- Estudo mensurativo comparativo: comparações entre classes que o pesquisador define, mas não pode controlar. 10- Experimentos de manipulação: o pesquisador conta com a sua experiência para impor os tratamentos, mas conta com problemas relacionados às repetições. A escolha da melhor abordagem experimental só poderá ser feita após a formulação de uma linha de pesquisa bem clara. Através dessa escolha será definida a população e todo o esquema amostral, sempre levando em conta o espaço físico ou temporal que o estudo pertence, e a coerência entre a extensão do estudo e os fenômenos envolvidos. Pennock destaca também que a falha na replicabilidade de certos estudos e o forte crivo dos revisores das revistas são problemas que limitam a expansão do conhecimento científico. Para reverter esse quadro, é preciso inovação da parte dos pesquisadores e flexibilidade da parte das publicações, desde que se mantenham a clareza, rigor e coerência nos dados apresentados.

excelente [2.200] Relacione princípios experimentais, variação do acaso, tamanho do experimento e grau de

confiança que o pesquisador pode ter em suas afirmativas. Uma pesquisa tem como objetivo a solução de um problema observado em uma coleção de unidades que

compartilham características comuns (população). Como geralmente uma população é constituída por um elevado número de elementos, é mais viável (para fins de pesquisa) que haja uma escolha de unidades que irão representar a população (amostra). O número de amostras vai depender do tamanho da população, mas sabe-se que quanto maior o número de indivíduos amostrados, maiores são as chances de uma amostragem mais fiel a realidade, levando-se em conta a heterogeneidade da população. Entretanto, existe em todos os dados obtidos o efeito de fatores não controlados, que dificilmente podem ser conhecidos individualmente e alteram, em diferentes níveis, os resultados obtidos. Essas variações são chamadas variação de acaso. Para diminuir os efeitos danosos desse tipo de variação, o pesquisador deve fazer uso dos princípios experimentais (repetição, casualização e controle local). Eles são essenciais para a detecção de efeitos relevantes dos fatores experimentais de modo sensível e não tendencioso, ou seja, permitirão ao pesquisador ter maior certeza se as diferenças obtidas como resposta têm ou não valor, se são ou não significativas. Um pesquisador que levar em conta todos esses pontos terá maior exatidão nos seus dados, representados pelo maior grau de confiança.

bem sintetizado, ligando os conceitos adequadamente [2.000] Discuta os princípios experimentais e sua importância, incluindo formas de aplicação Em um experimento, a variação nas respostas pode ser atribuída tanto à variação inerente à população

quanto à variação devido o acaso. A confusão na determinação da origem da variação pode dificultar a interpretação dos dados, e para aumentar a confiabilidade dos dados obtidos, o pesquisador deve se utilizar dos princípios

experimentais: repetição, casualização e controle local. O primeiro tem papel fundamental no cálculo do erro experimental, além de dar maior representatividade à amostra, contribui para uma estimativa não tendenciosa da validade dos resultados. O segundo (casualização) diz respeito ao procedimento de controle amostral para características que não podem ser manipuladas e/ou previstas pelo pesquisador, de modo a evitar resultados tendenciosos ou confusão entre os efeitos da casualidade e dos tratamentos. Caso haja diferenças que possam favorecer as respostas aos tratamentos, a casualização garante que todos os tratamentos tenham a mesma probabilidade de serem favorecidos ou não. Um exemplo muito simples do processo de casualização é a alocação aleatória das unidades de tratamento. Já no controle local, as unidades amostrais são divididas em grupos a partir de características comuns. Através do controle local, pode-se aumentar a homogeneidade dentro dos grupos e aumentar a heterogeneidade entre os grupos. Um controle eficiente contribui para a precisão das inferências, conferindo maior sensibilidade ao pesquisador no momento de detectar as diferenças nos efeitos dos tratamentos. Vale lembrar que só é possível fazer o controle local quando o pesquisador identifica a heterogeneidade do meio e consegue traçar estratégias para minimizá-las. De modo geral, pode-se dizer que, com a repetição, sabe-se a variância do erro experimental, este por sua vez é reduzido pelo controle local. Já a casualização não tem efeito direto sobre o erro experimental, mas influi na validação do resultado, pois diminui as chances de uma avaliação tendenciosa.

ok, mas apelou um pouco para o estatiquês [0.000] Discuta a afirmativa: "Toda descrição de uma amostra de dados precisa de pelo menos dois

valores", e justifique sua posição A afirmativa está incorreta. A escolha do tipo de medida descritiva e quantas medidas serão utilizadas na

descrição dependem do conjunto de dados disponíveis e do objetivo da descrição. As estatísticas descritivas podem ser de posição (média, moda e mediana), ou de variação (amplitude, variância, desvio padrão e coeficiente de variação). O primeiro tipo indica a posição que um conjunto ocupa na escala de valores. Já as medidas de variação descrevem, como o próprio nome sugere, a variabilidade de um conjunto de dados, sendo mais amplamente utilizadas em estudos quantitativos.

primeiro, a resposta indica que provavelmente você não entendeu bem a pergunta. Segundo, como poderiamos medir a variação do acaso a partir de um único ponto, que por definição não poderia variar?

[0.000] Discuta os principais tipos de testes de hipóteses, relacionando em particular com o tipo de

informação que podemos tirar deles A “hipótese de pesquisa” é a fundamentação teórica por trás do experimento. Visa uma solução ou resposta

a algum problema, favorecendo a evolução científica. Entretanto, para propor uma nova teoria, o pesquisador precisa encontrar evidências de que ela é correta. Daí surge a “hipótese estatística”, que se subdivide em “hipótese nula” (H0) (a negativa da hipótese de pesquisa), e a “hipótese alternativa” (Ha). Por exemplo, o pesquisador acredita que o adubo X aumenta a produtividade (hipótese de pesquisa), então ele propõe que “X não aumenta a produtividade” (H0). H0 pode ser aceita ou rejeitada; caso seja rejeitada, o pesquisador assume a Ha: “houve diferença estatística na produtividade”.

a pergunta não foi sobre a diferença entre as hipóteses científica e estatística, mas sim sobre os tipos de testes de hipóteses, ou seja, sua resposta não tem ligação com a pergunta

1. [4.400] Sintetize o artigo Pennock (2004) em suas palavras.

Pennock em seu artigo categorizou e discutiu os modelos de amostragem utilizados nos estudos de campo. O autor também lembra que a pesquisa pode ser dividida entre aquelas cujo objetivo é o avanço do conhecimento através da publicação nos meios científicos, e aquelas que atendem aos objetivos do setor privado. Foram descritas, ao todo, 10 categorias de pesquisa, sendo elas: 1- Pesquisa de contaminantes: avaliação da extensão da contaminação e/ou remediação dos danos. Conta com amostragens intencionais, baseadas na experiência do pesquisador, para obtenção das estimativas. 2- Pesquisa do solo: fornece resumos descritivos das principais propriedades do solo. Nesses estudos, a amostragem intencional é complementada com a amostragem probabilística, permitindo a seleção e interpretação fundamentada do perfil. 3- Estudos de monitoramento: avaliação da situação atual e tendências dos diferentes recursos naturais. Nesse ramo, há grande variedade de esquemas amostrais, o que pode dificultar a generalização dos resultados obtidos. 4- Estudos pedológicos ou geomorfológicos: foco nos processos que formaram as propriedades do solo. As observações de campo são combinadas com análises laboratoriais, mas raramente há uma interpretação única. 5- Estudos geoestatísticos/pedométricos: quantificação do padrão espacial das propriedades do solo. Faz-se uso de do modelo baseado em amostragens estratégicas, onde o processo pedogenético é modelado através de um processo estocástico. 6- Estudos de perturbação: focam nas respostas das características populacionais à perturbação, usando a análise das séries temporais. 7- Estudos de padrão: avaliações dos padrões espaciais e/ou temporais das propriedades. São feitos ensaios usando pontos padronizados, a partir dos quais são elaborados moldes para testar a variabilidade. 8- Estudos de modelagem de apoio: o maior exemplo é o desenvolvimento de funções de pedotransferência. Os esquemas amostrais se baseiam em projetos de manipulação muito elaborados, traçando comparações entre os grupos. 9- Estudo mensurativo comparativo: comparações entre classes que o pesquisador define, mas não pode controlar.

10- Experimentos de manipulação: o pesquisador conta com a sua experiência para impor os tratamentos, mas conta com problemas relacionados às repetições. A escolha da melhor abordagem experimental só poderá ser feita após a formulação de uma linha de pesquisa bem clara. Através dessa escolha será definida a população e todo o esquema amostral, sempre levando em conta o espaço físico ou temporal que o estudo pertence, e a coerência entre a extensão do estudo e os fenômenos envolvidos. Pennock destaca também que a falha na replicabilidade de certos estudos e o forte crivo dos revisores das revistas são problemas que limitam a expansão do conhecimento científico. Para reverter esse quadro, é preciso inovação da parte dos pesquisadores e flexibilidade da parte das publicações, desde que se mantenham a clareza, rigor e coerência nos dados apresentados.

excelente [2.200] O fato de termos mais de um valor para uma dada variável, no mesmo tratamento, indica

que o princípio da repetição está sendo obedecido? Discuta. Depende, pois o processo de amostragem de uma população, esteja ela obedecendo ao principio da

repetição ou não (isso quer dizer realizando apenas replicatas da sua única amostra) nas duas situações posso obter mais de um valor para certa variável dentro do mesmo tratamento, como mostrado no exemplo abaixo para uma condição hipotética: - (*) determinação de Ca2+ trocável no solo em três repetições de um tratamento; - (**) repetidas determinações de Ca2+ trocável no solo em apenas uma amostra do tratamento (assumindo que essa amostra seja a repetição 1 da condição acima). Repetições *Ca2+(cmolc dm-3) Replicatas **Ca2+(cmolc dm-3) 1 1,85 1 1,90 2 1,90 2 1,81 3 1,75 3 2,00 Notamos variações em ambas as condições para os valores determinados para Ca2+. A explicação reside no fato de que diferentes amostras de uma mesma população apresentarão resultados diferentes e esta ideia tanto se aplicará na repetição de um tratamento como no simples fato de replicarmos uma amostra. Portanto, o simples fato de obtermos distintos valores para determinada variável dentro do mesmo tratamento não será o fator determinante que irá me dizer se o principio básico da repetição está sendo empregado ou não em certo experimento.

resposta correta, embora um tanto confusa. Que tal simplesmente dizer que enquanto replicatas apenas avaliam erros metodológicos, já que são apenas leituras repetidas do mesmo material, a repetição mede, além de erros metodológicos, a variação do acaso?

[3.500] Sintetize o artigo Pennock (2004) em suas palavras. Em seu artigo Designing field studies in soils science, D. J. Pennock tem por finalidade os seguintes

aspectos: apresentar tudo em matéria correspondente a estudos de solo em campo utilizado pelos próprios profissionais científicos da área de solo; e posteriormente promover uma reflexão sobre algumas considerações que se deve levar em contar sobre o processo de amostragem para a totalidade de categorias aqui descrita. A principio é demonstrado as categorias ou tipos de estudo em campo na área de ciências do solo demonstrando características como: finalidades (relevância no conhecimento cientifico, lucratividade mediante condições mais favoráveis para incrementos em ganhos ou determinação de condições ambiental para fins de prevenção ou remediação), público alvo (setores privados ou públicos), portanto, estes tipos de esclarecimentos aliado a descrição da amostragem é o que caracteriza a abordagem a cada tipologia de estudo em campo. As categorias são: avaliação da contaminação – de caráter privado, com objetivo específico de avaliar extensão da contaminação até níveis finais de remediação do problema e quanto à amostragem nesse tipo de levantamento se sucede varias críticas; levantamentos de solo – setor público, visando à promoção de um mapeamento das distintas classes taxonômicas do solo, para esse caso a amostragem tende a ser realizada por profissionais de experiência marcante, proporcionando desta forma minimização dos erros quanto às conclusões desenvolvidas; estudos de monitoramento – avaliar as condições dos recursos naturais, contudo dificuldades são incorporadas ao processo de amostragem devido a grande informação que muitas das vezes se pretende buscar com esse tipo de estudo; estudos geomorfológicos e pedológicos do solo – no tocante a compreender em escala evolutiva os processos que assim formaram as distintas classes dos solos para determinadas regiões, como também relacionar paisagem a predominância de certa classe de solo; estudos pedométricos/geoestatisticos – caracteriza-se por uma aglomeração de conhecimentos sobre as mais distintas características (química, física e biológica) dos solos no intuito de promover interpolação para áreas que serão futuramente exploradas por meio de processos de diferentes modelos espaciais (modelagem); ainda se segue estudos de perturbação no tocante a ecologia de determinado ecossistema, estudos padrões, estudos de apoio à modelagem no que concerne a determinação de métodos de amostragem em campo mais precisa na promoção de melhores modelos geoestatisticos, estudos comparativos de mensuração e por fim estudos de manipulação. A outra abordagem dada pelo autor em seu artigo é sobre as considerações que devem ser observadas quando aí se pretende desenvolver um programa de pesquisa em campo. A primeira que ele destaca é a correta seleção da categoria a ser utilizada não apenas visando o objetivo de estudo, como também a real capacidade ou domínio que o

executor tem sobre a referida categoria, associado a uma revisão completa da literatura para assim poder ter correta orientação sobre a realização da pesquisa. Posteriormente, ele descreve sobre a definição da população e unidades experimentais demonstrando a importância que se tem em definir corretamente a população, pois esta influenciará de forma concisa na amostragem, ou seja, a forma e a quantidade de amostras será uma variável em função dos parâmetros (heterogeneidade/homogeneidade) observados na população em estudo, e por fim levanta questões sobre a escala e problemas quanto à replicação, características estas intimamente correlacionadas, e aos layouts e espaçamento entre as amostras. Pennock, conclui com as seguintes recomendações: uma definição clara de sua pesquisa é o passo inicial e fundamental para a elaboração de seu projeto de estudo; a amostragem sempre deve ser planejada no objetivo de se obter resultados condizentes a população e que esta na fase de elaboração deverá ser bem definida assim como os elementos que a compõe, construa suas hipóteses em cima de raciocínios lógicos e por fim novas abordagens e principalmente inovadoras devem surgir no intuito de ampliarmos nossa escala de estudo em campo.

boa resposta, mas pegando muito pouco nas implicações dos diferentes tipos de modelo quanto á amostragem, que são muito grandes.

[1.750] Compare os erros tipo I e II, suas mais prováveis consequências, e seu relacionamento com

nível de significância. Os erros tipo I e II são determinados pela decisão arbitrária do observador no que tange a aceitar ou rejeitar

certa condição observada da hipótese nula (Ho), ou seja, o erro tipo I consiste em decidirmos rejeitar a Ho quando esta é verdadeira, enquanto que a decisão correta a ser tomada deveria ser a de aceitá-la. Já, o erro tipo II se apresenta em outro estado de Ho está agora sendo falsa e o observador decidindo agora aceitá-la quando este deveria rejeitá-la. Em termos práticos cometermos os erros tipo I e II consiste em declararmos a existência (Erro I) ou inexistência (Erro II) de diferença significativas entre os nossos tratamentos avaliados no experimento, e diante disso assumimos que ambos são resultados “mascarados”, ou seja, errôneos, contudo o erro tipo I sempre apresentará maior gravidade em relação ao outro. Essa afirmação fica mais esclarecida por meio de um exemplo prático, como: produtividade de duas variedades vegetal A(nova) e B(velha) – se cometermos o erro tipo I afirmando que a variedade A é mais produtiva que a B, e que na realidade não se procede o efeito, obteremos perdas satisfatórias em produtividade se agora produzirmos apenas a variedade A em vez da B (concepção de perda) – agora, se realmente a variedade A é superior a variedade B e aí chego a conclusão errônea (erro II) de que isso não ocorre na realidade e consequentemente continuo cultivando e produzindo a variedade B obtendo produtividades inferiores, a concepção introduzida neste caso é de redução de ganho, porém sem nenhuma perda, já que continuo utilizando uma variedade antes explorada. A relação existente entre os tipos de erros (I e II) com o nível de significância (1%, 5% e 10%, sendo o mais empregado o de 5%) se estabelece pelo seguinte raciocínio: quando atribuímos um nível de 5% de significância para a análise estatística de nosso experimento, assumimos uma probabilidade de 5% em rejeitarmos Ho e se esta for verdadeira cometeremos o erro tipo I com a mesma chance de 5%, já nesta mesma condição de significância de 5% nos ocorre a probabilidade de 95% em aceitarmos Ho e se esta for falsa teremos logicamente a mesma chance de cometer o erro tipo II (95%). Diante disso se chega a conclusão que o nível de significância (1%, 5% ou 10%) adotado será a probabilidade de cometermos o erro tipo I e por consequência lógica a diferença (99%, 95% e 90%) será a probabilidade de cometermos o erro tipo II, e por simples observação ainda se conclui que se diminuirmos as chances de erro I aumentaremos as do erro tipo II.

na realidade, a decisão de aceitar ou não a hipótese nula NÃO é arbitrária, mas sim baseaeda nos dados do experimento, o que é algo completamente diferente. Uma decisão arbitrária por definição não é baseada em dados, mas em opinião. além disto, o erro (I ou II) não é afirmarmos que existe ou não existe, mas sim afirmarmos isto quando NA POPULAÇÃO REAL E DESCONHECIDA acontece o contrário do que afirmamamos. Tente revisar o que escreve para ver se faz sentido. Por exemplo, o que quer dizer "perdas satisfatórias" pelamordedeus?

[2.200] Discuta os principais tipos de testes de hipóteses, relacionando em particular com o tipo de

informação que podemos tirar deles Os teste de hipóteses comumente utilizados são: teste Chi-quadrado, teste de variância (F), o teste t e o teste

de Tukey. O critério de seleção sobre qual se apresenta mais compatível ao uso nas diversas condições será em função do tipo de hipótese que se pretende testar como também da tipologia tanto do material como dos seus dados. O mecanismo para cada teste se observa da seguinte forma: • Teste Chi-quadrado (x2); Consiste em um teste que visa verificar a adequação de ajustamento entre as frequências observadas(fo) e as frequências esperadas(fe), ou seja, se as discrepâncias dessas duas frequências serão devidas ao acaso ou se realmente existe diferença significativa entre as frequências em sucessivos eventos(K). Uma simples compreensão da mecânica deste teste baseia-se na comparação entre o valor do x2calculado em relação ao valor de x2tabelado e diante disso podemos assumir as seguintes conclusões: - Se x2calculado < x2tabelado (adotando certo nível de significância) – implica dizer que as frequências observadas e esperadas não são discrepantes; - logo, se x2calculado > x2tabelado (adotando certo nível de significância) – chega-se a conclusão que há discrepância entre as frequências observadas e esperadas, ou seja, não há adequação do ajustamento. Portanto, este teste nos limita apenas ao reconhecimento das numeras vezes que um evento ocorre em comparação

ao que se espera admitindo determinado grau de erro (1%, 5% e 10%) tendo assim seu uso estritamente recomendado para análises de resultados de dados emparelhados, como exemplo de experimentos do tipo antes e depois. • Teste F; O mecanismo deste teste reside em compararmos variâncias, ou seja, buscamos comparar a variação dos tratamentos com a variação do acaso no intuito de reconhecermos a existência de efeito oriundo dos tratamentos (significativos a certo nível) ou do acaso (não significativos a certo nível de significância) e isso se processa por meio da comparação do valor F calculado pelo F tabelado na seguinte relação: - Se o Fcalculado ≥ Ftabelado – concluímos que ocorreu efeito do tratamento, já; - Se o Fcalculado < Ftabelado – conclui-se que a diferença existente foi devido ao acaso e não a aplicação do tratamento. Como exposto acima, pelo entendimento do teste F extraímos informações quanto a existência ou ausência de efeito do tratamento sobre a variável analisada, contudo não existe informação quando se busca reconhecer quem foi o melhor dos tratamentos, e ainda se consegue quando trabalhamos com apenas dois tratamentos, mas quando o número é superior a dois esse teste se ver limitado a nos fornecer melhores conclusões. • Teste t; Teste clássico usado para comparar médias de dois tratamentos, seu emprego leva em consideração os seguintes requisitos: - as comparações feitas pelo teste t devem ser escolhidas antes de serem examinados os dados; - as comparações feitas devem ser, no máximo, iguais ao número de graus de liberdade de tratamentos; - este exige que as comparações definidas sejam contrastes ortogonais, quando aí, tivermos mais de dois tratamentos. A diferença básica do teste t para o teste F, além de suas reais funções – comparação de média (t) e comparação de variância (F) existe outra questão envolvida que são os dados utilizados nos testes, ou seja, enquanto que o teste t somente trabalha com as médias comparando-as o teste F trabalha com todo seu conjunto de seus dados. • Teste Tukey; Teste de comparação de média entre os tratamentos de uso comum no meio agronômico, devido a sua rigorosidade e de fácil aplicação. Este teste supri a necessidade de reconhecermos a diferença entre os tratamentos diante da análise de variância (F) a certo nível de significância, dos tratamentos testados. Como também se torna amplo quando comparado ao teste t em que recomenda-se para a comparação das médias de dois tratamentos. O mecanismo deste teste fundamenta-se na determinação de um valor de diferença mínima significativa (Δ) entre os tratamentos a certo nível de significância Δ(1%, 5% ou 10%) comparado a amplitude (Y) entre dois tratamentos, ou seja: - Se Δ(1%, 5% ou 10%) > Y (diferença entre dois tratamentos) – dizemos que não existe diferença significativa entre ambos e o representamos por uma letra idêntica; - Se Δ(1%, 5% ou 10%) ≤ Y (diferença entre dois tratamentos) – conclui-se que os tratamentos diferem significativamente entre si, e para este caso representamos os tratamentos por letras distintas. Logo, a lógica do emprego deste como de qualquer outro de comparação de média só existirá sentindo se por meio da análise de variância obtermos resultados significativos, se não, é contraditório o seu emprego.

apenas algumas ressalvas. Embora possa ver o uso do qui-quadrado que você menciona, o uso mais comum dele é ver se houve alteração nas proporções de alguma coisa, frequentemente em trabalhos de amostragem. Por exemplo, podemos avaliar se a proporção de resposta a calagem em diferentes solos é alterada pelo material de origem do solo. neste caso, admitiríamos que independentemente do tipo de material de origem a resposta à calagem seria igual (evidentemnte com a calagem sendo determinada pelo tipo de solo específico). Assim, pegaríamos um porrilhão de trabalhos de calagem já feitos, e dividiamos por tipo de material de origem. Para cada tipo contaríamos a proporção de com e sem resposta. se o material de origem não afetar a resposta, estas proporções não devem ser significativamente diferentes... já quanto a Tukey, é importante levar em consideração que é um exemplo de uma enorme família de testes de comparação de médias, com um grande número de alternativas, e que em algumas situações algum outro teste da mesma família pode ser mais recomendável.

[2.200] Discuta os princípios experimentais e sua importância, incluindo formas de aplicação A experimentação científica baseia-se em três princípios básicos: a repetição, a casualização e o controle

local. O princípio da repetição corresponde ao número de vezes pela qual um determinado tratamento ocorre no ensaio experimental. A lógica da aplicação deste princípio nos proporciona subsídios para afirmamos que certo fenômeno ocorrido ou observado se deve ao efeito do tratamento e não do acaso, além de nos induzir a uma melhor estimativa dos possíveis erros, que consequentemente irão incrementar na precisão das estimativas de certa variável em questão como também na ação dos testes estatísticos. No processo experimental quanto maior o número de repetições para um tratamento mais precisão e exatidão você terá nas suas conclusões, contudo, o número de repetições a ser adotado é em função de diversos fatores destacando-se principalmente os de custo e espaço, ou seja, para certa condição pode se tornar muito oneroso a aplicação de um elevado número de repetições, como também nosso espaço físico para aplicação do experimento se mostra limitado a certo número de repetições por tratamento e em cima dessas e de outras realidades assim determinamos o número de repetições. A casualização, segundo princípio e não menos importante que o da repetição, seu principio busca atribuir condições igualitárias no ambiente experimental a todos os tratamentos envolvidos na experimentação e de que forma,

promovendo a distribuição das repetições dos respectivos tratamentos de forma aleatória, inibindo assim que uns tenham privilégios em relação a outros (por exemplo: áreas de maior ensolação, áreas mais férteis, áreas com níveis de contaminação mais elevados e etc.), logo sua importância reside no fato de que se aí existir (e existe) erro experimental este estará distribuído e não concentrado entre os tratamentos. A casualização dos tratamentos é realizada por meio de sorteio, porém esse deve ser justo e uma das formas mais práticas e fáceis é por meio do programa estatístico do Excel. O Controle Local é o único principio condicional, ou seja, a sua aplicação só será necessária se aí tivermos a clareza e certeza de que nossa área experimental em sua extensão se mostra heterogênea, necessitando assim de certas medidas para que possamos amenizar o efeito de discrepância que existe nela. A medida mais comum a ser tomada é dividir essa área em blocos homogêneos a certa característica (por exemplo: textura do solo, níveis de contaminação, declividade do terreno e etc.) e aí aplicar uma repetição de cada tratamento a cada subárea homogênea (bloco) dessa, permitindo a submissão de todos os tratamentos as diferentes condições de variação da área experimental.

excelente [1.750] Discuta a afirmativa: "Toda descrição de uma amostra de dados precisa de pelo menos dois

valores", e justifique sua posição R: A presente afirmação é verdadeira! Pois a partir de 2 valores já podermos tirar medidas de tendências

centrais como a média e mediana, e medidas de variação como variância e desvio padrão. Quando temos apenas 1 valor este é absoluto, não descrevendo nada da situação analisada, ou seja, não podermos saber se o efeito é dos fatores não controláveis ou do tratamento aplicado. Quando analisamos dois valores já é possível extrair alguns parâmetros estatísticos para comparação. A média é a mais importante das medidas de tendência central, por ser a mais representativa de uma amostra de dados. Além disso, é a medida exata e rigorosamente definida como medida de tendência central é de fácil compreensão e descreve todos os dados da serie, serve de apoio a cálculos posteriores como o das probabilidades desvio padrão, coeficiente de variação, etc. No entanto quando maior o número de valores, melhor será a descrição da amostra, ou seja, quanto mais repetições tivermos em um experimento maior será a segurança para descrever tal amostra como falsa ou verdadeira, e saber se os dados são ou não representativos para um dado tratamento.

A afirmativa é parcialmente verdadeira, já que não é somente uma questão de dois valores, mas pelo menos dois valores submetidos à variação do acaso. Em outras palavras, fazer duas determinações de uma mesma amostra composta não cobre esta necessidade

[3.000] Sintetize o artigo Pennock (2004) em suas palavras. R: O artigo de Pennock, tratar dos métodos de estudos e forma que se podem analisar o solo, também relatar

bastante sobre as diferentes linhas de pesquisar que um pesquisador de solos pode atuar, como por exemplo, áreas de contaminação de solos, pedologia, levantamentos de solos, entre outras citada no texto. O objetivo do pesquisador no artigo é classificar toda a gama de estudos realizados pelos os pesquisadores em ciências do solo, e discutir a concepção dos programas de campo com as amostragens mais adequadas para cada categoria. Na ciência do solo usar se dois critérios para a classificação de estudos em campos onde o primeiro refere-se aquele quando ocorre uma perturbação distinta (enchentes, vazamentos, poluição de solos, etc.), já o segundo e mais importante refere-se ao grau de controle exercido pelo o próprio pesquisador. O autor relata as linhas de pesquisa ou áreas que podemos trabalhar, a primeira dela é a pesquisa com contaminantes, onde que de maneira geral as pesquisas realizadas são por empresas privadas ou por consultores ambientais, nesta linha de pesquisa o objetivo principal é a avaliação inicial da extensão de contaminação para o estágio final da reparação do problema. A amostragem geralmente é feita onde os pesquisadores acham que a contaminação pode ser localizada processo este que pode se chamado como amostragem intencional. Na linha de levantamentos de solos o objetivo maior é realizar o mapeamento de unidades taxonômicas de solos, para fornecer assim um resumo descritivo das suas propriedades. Nestes estudos a associação entre as classes de solo e a unidade da paisagem é estabelecida no campo por seleção criteriosa de pontos de amostragem e pela a descrição completa dos perfis. Nestes levantamentos a amostragem pode se complementada por amostragem em grades ou em transecto. Nos estudos de monitoramento do solo visa-se avaliar a situação atual e tendências de diferentes recursos naturais. Já nos estudos de pedologia ou de estudos geomorfológicos do solo o enfoque principal é estudar eventos passados, mais especificamente sobre os processos que formaram as propriedades do solo ou paisagens em estudo e os ambientes que controlavam as taxas destes processos. Nos estudos pedológicos, primeiramente localizar-se os perfis e realizam cuidadosa descrição pedológica, nos estudos geomorfológicos são aplicados técnicas de datação para observar os acontecimentos cronológicos. As observações no campo da pedologia sempre são associadas às analises de laboratório para entender os processos de formação. Nas investigações usando a geoestatística, o objetivo é verificar o padrão espacial do solo, os atributos do solo amostrados podem ser usados para fazer a interpolação de dados para locais não amostrados, nesta linha de pesquisa avalia se a adequação de diferentes modelos espaciais. Já os estudos de perturbações são caracterizados por apresentar perturbações distintas, no entanto estes não são utilizados em ciências do solo, porém é indispensável para o monitoramento da poluição ambiental. Os estudos de modelagem são realizados para uma eficiente estimação de parâmetros para modelos. Já nos

comparativos mensurativos, as comparações são feitas entre as classes que o pesquisador define, sendo importante enfatizar que a sua localização não pode ser ao acaso pelo pesquisador, ao contrário de tratamentos, tais como tipo de preparo ou doses de fertilizantes. Os experimentos de manipulação dos tratamentos é o único tipo de projetos de pesquisa que a "experiência" deve ser anexada. O principal problema enfrentado na escolha destas técnicas está associadas com a replicação. Estas questões também são comuns com as técnicas comparativos mensurativos. Questões de extensão são relevantes para a concepção de todo os estudos de campo. A escala esta intimamente ligada à questão de replicação na hipótese de teste de experimentos. .Após o pesquisador formular uma questão de pesquisa o mesmo deve fazer uma seleção da abordagem adequada, uma revisão completa dos trabalhos já conhecido é essencial para determinar como pesquisar o que ainda não é conhecido. Em um projeto de pesquisa bem sucedida devem ser considerados uma definição clara da pesquisa. Abordagens inovadoras devem ser sempre desenvolvidas e aplicadas para que possamos ampliar a escala de estudos de campo em ciências do solo.

embora tenha coberto essencialmente todo o artigo, aparentemente não fez qualquer ligação com as consequências e premissas dos diferentes tipos de estudos.

[2.200] Discuta os principais tipos de testes de hipóteses, relacionando em particular com o tipo de

informação que podemos tirar deles R: Os processos que nos permite aceitar ou rejeitar uma determinada hipótese são chamados de testes de

hipóteses ou teste de significância. Os testes podem ser unilaterais ou bilaterais. Quando evidenciamos valores extremos da estatística o teste é o bilateral, ou seja, afirmamos que a hipótese alternativa (H1) é diferente de H0. Quando o objetivo é apenas um dos valores extremos dessa estatística o teste é unilateral. Deste modo quando afirmamos que H1 é maior que H0 (H1 > H0) o teste é unilateral à direita, já quando afirmamos que H1 é menor que H0 (H1 < H0) o teste é unilateral à esquerda. Os testes de hipótese podem ser o teste F (para a analise de variância), e os de comparação de médias teste t de Student, teste de Tukey e o teste Qui Quadrado. O teste F, consiste na decomposição da variância total, tem por finalidade comparar estimativas de variâncias e dos graus de liberdade em partes que podem ser atribuídas a causas conhecidas e independentes (fatores que podem ser controlado) e a uma porção residual de origem desconhecida e natureza aleatória (fatores não controlados). Quando o teste F for significativo e tivermos comparando apenas dois tratamentos não precisar-se aplicar nenhum outro teste para saber se a hipótese é aceitável ou não, no entanto quando há mais de dois tratamentos, fazendo apenas o teste de F não podemos indicar qual o melhor tratamento, sendo então necessário aplicar os testes de comparação de médias que pode ser o teste t de Student que server para comparamos médias de dois tratamentos ou médias de dois grupos de tratamentos nos casos em que o contraste tem mais de duas medias envolvidas. Temos também o teste de Tukey que é muito utilizado por ser bastante rigoroso e de fácil aplicação, este teste não permite comparar grupos de tratamentos entre si, ele é utilizado para testar toda e qualquer diferença entre duas médias de tratamento. Assim como, por exemplo, ser tivermos 5 tratamentos teremos então 10 contrastes de duas médias de tratamentos. Outro teste é o Qui Quadrado, que é um teste de hipóteses, que apresenta como objetivo encontrar um valor da dispersão para duas variáveis nominais, avaliando a associação existente entre variáveis qualitativas. Este teste não depende dos parâmetros populacionais, como média e variância. O Qui Quadrado buscar possíveis divergências entre as frequências observadas e esperadas para certo evento. Dois grupos se comportam de forma semelhante se as diferenças entre as frequências observadas e as esperadas em cada categoria forem muito pequenas, próximas à zero. As informações que podermos retirar com os testes de hipóteses esta relacionada em dizer se o nossos tratamentos estudados são iguais ou diferentes ao já existente (H0), o teste F quando comparamos apenas dois tratamentos pode nos dizer qual é o melhor tratamento, quando estamos avaliando três ou mais tratamentos aplicamos os teste de comparação de média que nos dirá qual tratamento apresentar os melhores resultados e/ou os piores, e também mostrará quais tratamentos são iguais estatisticamente. Muitas vezes as informações nos testes de hipótese pode esta relacionadas a erros que são o erro tipo I e tipo II. A escolha da melhor hipótese alternativa tem importância por influenciar no poder do teste, que é definido como sendo a probabilidade de rejeitar H0, quando ela for falsa, ou aceitar H1, quando ela for verdadeira.

resposta essencialmente boa, mas o uso liberal do estatiquês me deixa com um pouco de dúvida sobre a compreensão real do assunto. Além disto, os testes que mostrei no material e na sala, e que você exemplifica aqui são apenas alguns dos zilhões de testes disponíveis na literatura.

[2.000] Relacione princípios experimentais, variação do acaso, tamanho do experimento e grau de

confiança que o pesquisador pode ter em suas afirmativas. R: Os princípios experimentais existem para da melhor segurança aos testes estatísticos, existem três

princípios básicos na experimentação que são: o princípio da repetição, casualização e o controle local, este ultimo muitas vezes não é necessário o seu uso. A variação ao acaso são as variáveis não possíveis de serem controlados ou poucos controlados, os princípios experimentais contribui de grande forma para reduzir a variação ao acaso, desta forma aplicando-se corretamente os princípios experimentais pode-se reduzir os efeitos da variação ao acaso e consequentemente reduzir a variação dos resultados de repetição para repetição. Quanto maior for o experimento, maior é a probabilidade de aumentar os erros e a variação ao acaso. Desta forma em grandes áreas experimentais dever ser aplicar um maior controle no experimento, devendo muitas vezes neste

caso usar o controle local (desde que haja uma diferença a ser controlada). Em experimentos grandes de tamanho, maior será a variação ao acaso, devido o pesquisador ter a probabilidade de cometer mais erros, pelo o fato de esta repetindo varias vezes o mesmo procedimento, como, por exemplo, ele pode errar em um dado espaçamento, ou pegar uma área com maior fertilidade neste experimento e que não tenha sido controlada, realizar um trato cultural diferenciado em alguma parte do experimento ou incorporar uma semente em maior profundidade, entre outras causas possíveis de acontecerem, resumindo o operador está mais sujeito a erros em maiores experimentos. Quando o experimento é menor em tamanho, menor será o número de repetições necessárias no experimento e provavelmente não irá necessitar de um controle local dentro do experimento, também são menores a possibilidade de haver efeitos aleatório beneficiando uma dada amostra. O grau de confiança do pesquisador no experimento aumenta quando aumenta o princípio básico da repetição, ou seja, maiores serão a chance dos dados estarem corretos, pois a repetição reduz a possibilidade dos efeitos ser devido a variação do ambiente. Quanto maior for o rigor realizado no experimento com as repetições, com a casualidade e se necessário com o controle local maior será a confiança para expressar os resultados. Quanto menos variação ao acaso um experimento apresentar maior será o grau de confiança dos mesmos, ou seja, o experimento não sofrerá com variação do ambiente e sim apenas com as variáveis testadas pelo o pesquisador. A aplicação correta dos princípios experimentais, o maior controle das variações ao acaso e áreas menor de experimento aumentaram a confiança do pesquisado a respeito do seu trabalho.

Na realidade o único princípio que reduz a variação do acaso é o controle local. A repetição permite medir, e a casualização garante sua indepedência do tratamento. De resto aproximadamente correto.

[1.750] Compare os erros tipo I e II, suas mais prováveis consequências, e seu relacionamento com nível de

significância. R: Primeiramente, vamos definir o erro Tipo I e o Tipo II. O erro tipo I ocorre quando rejeitamos a hipótese da

nulidade quando deveríamos aceita-la, em outras palavras H0 é verdadeira e a rejeitamos. O erro Tipo II ocorre quando aceitamos a hipótese de nulidade, quando deveríamos ter rejeitado, ou seja, quando H0 é falsa. O nível de significância é enfatizado como a probabilidade de cometer o erro tipo I. O nível de significância adotado em trabalhos geralmente é menor do que 10% (0,10). A relação entre os erros tipo I e tipo II, com o grau de significância é que quanto menor for o grau de significância, menor será a possibilidade de rejeita H0, quando deveríamos aceita-la, em outros termos menor será a possibilidade de cometer o erro tipo I. Devermos sempre ter o cuidado para não cometer o erro tipo I, pois as consequências poderão ser mais graves, do que quando cometemos o erro tipo II, como por exemplo, quando afirmamos que uma nova cultivar de milho é diferente de uma já tradicionalmente utilizada, se cometermos o erro tipo I estaremos dizendo que a nova cultivar é melhor que a tradicional, enquanto a nova cultivar não é melhor, a partir dai estaremos sujeitos a perder uma boa cultivar de milho por ter aceitado uma cultivar igual ou pior, já ser cometermos o erro tipo II ou seja a cultivar nova realmente é melhor com este erro estaremos deixando de ganhar e não perdendo. Desta forma pode-se até tentar diminuir o erro tipo I, porém isto elevar a possibilidade de cometer o erro tipo II, no entanto este procedimento não é recomendável. Uma forma mais segura de reduzir o erro Tipo I e Tipo II simultaneamente é com o aumento do número de amostras, sendo assim maior será a confiança do pesquisador em afirma que as diferenças ou não são em função das variáveis analisadas e não por efeito do ambiente. Atualmente os experimentos em ciências agrárias são realizados com nível de significância de 5%, o que diminui a ocorrência do erro Tipo I.

Primeiro, aumentar o nível de significância é reduzir a chance de cometer o erro tipo I, e não o contrário como você afirmou. Segundo, de um modo geral, mas nem sempre, afirmativas com SEMPRE estão erradas. Neste caso a afirmativa sobre o erro I sempre ser pior do que o II está errada. DE UM MODO GERAL, é verdade, mas existem situações em que o erro I é mais prejudicial do que o II, então devemos tomar mais cuidado para não cometer o erro II.

[1.000] Discuta a afirmativa: "Toda descrição de uma amostra de dados precisa de pelo menos dois

valores", e justifique sua posição Não é possível avaliar a variabilidade em uma única observação em razão que diferenças impostas ao acaso,

não seriam diluídas, como acontece quando tiramos uma medida usando a média das repetições. Interferências como condições ambientais desconhecidas podem modificar o comportamento de uma amostra, esse fator pontual pode ser minimizado se distribuídas às repetições da amostras por todo o talhão, extraindo-se uma média demonstra-se as características a que se quer testar mais do que as impostas ao acaso.

não faço idéia do que você quis dizer com diluir a variação do acaso. O que a repetição permite é medir a variação do acaso, o que não seria possível com um único valor.

[3.000] Sintetize o artigo Pennock (2004) em suas palavras. Projetando estudos de campo em ciências do solo.

A pesquisa de campo em ciência do solo segue padrões estatísticos básicos ou de geoiestatística clássica, para as mais variadas aplicações dentro da dinâmica dos temas. Muitas vezes os pesquisadores por não terem acesso a modelos mais apropriados, com pacotes tecnológicos que permitam uma aplicação dos conhecimentos probabilísticos mais eficazes, já conhecidos no campo da experimentação, ou vezes por desconhecimento recorrem a “recitas de bolo” que imprimem caráter superficial a pesquisa ou se demonstram ineficazes para dá acurácea aos resultados. O propósito neste artigo é classificar toda a

gama de estudos de campo realizados pelos cientistas do solo e, em seguida, discutir a concepção dos programas de campo com a amostragem adequada para cada das categorias Fazer uma segmentação da pesquisa pode elucidar causas e conseqüências do aporte de capital para pesquisa e distribuição do conhecimento. Devendo haver cuidado nas distinções entre modelo estatístico e campo de estudo da ciência do solo. Em um primeiro momento podemos distinguir aquém se quer atingir com o trabalho. Entre interesses puramente científicos do desenvolvimento da ciência, e dos interesses comercias ou de aplicação de novas tecnologias pela iniciativa pública ou privada nesse último caso a pesquisa seria ditada, pelo menos em parte, pelos interesses em jogo perdendo a imparcialidade do primeiro. Categorias de investigação como inquérito de contaminantes, levantamento de solo e estudos de monitoramento são iniciada pela iniciativa pública ou privada sendo ainda estudada apartir de empenhos de pesquisadores que podem conseguir fomento de alguma agência. Já outras categorias de investigação são mais trabalhadas no campo da evolução do conhecimento científico como a pedologia, taxonomia, levantamento de solo que quando feita por um cientista pode ser bastante eficaz no campo. Já a geoestatística pode ser aplica a várias categorias de investigação podendo fazer interpolação dos dados em um determinado espaço com interação com o tempo extrapolando para locais não amostrados. Os Estudos das Perturbações, não muito comum em ciências do solo e Estudos do padrão são fundamentais para controle da poluição ambiental o primeiro por avaliar característica da população antes e depois das perturbações. A segunda quantifica a variabilidade temporal que gera hipóteses a serem testadas e comparadas com as da literatura. Sendo assim para que a investigação tenha eficácia alguns cuidados devem ser tomados desde o levantamento de campo. As questões que devem ser consideradas no projeto de sucesso de programa de investigação campo podem ser resumidas como: Uma definição clara da questão de pesquisa é o primeiro Passo e mais crítico. Esta definição determina o tipo de projeto de pesquisa que é apropriado e o projeto específico questões relacionadas com os tipos de pesquisa diferente.

o início da resposta estava muito promissor, mas depois foi ficando bem pior, por não fazer qualquer ligação aparente com os métoddos de estudo, como aliás, aconteceu para a maioria das respostas a esta questão

[0.000] Discuta a diferença entre as hipóteses estatística e científica, considerando em particular as

consequências desta diferença. A hipótese científica desempenha um papel importante no desenvolvimento do conhecimento científico,

estreitando o caminho entre a investigação e uma teoria que fundamente a resolução dos problemas que definem o objetivo da experimentação. Por outro lado as hipóteses estatísticas testam a aceitabilidade das proposições declaradas e expõem as unidades experimentais ao crivo de probabilidades que ratifica ou não a hipótese científica.

você realmente leu a pergunta? não consegui identificar qualquer tentativa de ligação entre os dois tipos de hipóteses.

[2.200] Discuta os princípios experimentais e sua importância, incluindo formas de aplicação Os princípios experimentais são condições impostas para a unidade experimental (amostra), sendo a menor

divisão do material experimental deve permitir que seja repetido, submetido à casualidade e em algumas situações sofrer controle local. A importância da repetição é que ela permite maior precisão em estimativas determinadas, como exemplo, a diluição do erro padrão da média, que diminui na medida em que aumenta o número de amostras. O contrário é elucidativo no qual é impossível verificar a variação de uma amostra em uma única observação inviabilizando a experimentação. A casualização gera uma “homogeneidade” de condições para todas as amostras em suas repetições, não incorrendo no desenvolvimento intencional de uma característica por força de predileção, ou na condição específica desconhecidas, mas existentes, de um sítio da distribuição espacial. Ou seja, é uma maneira honesta de sorteio para que variações ao acaso sejam distribuídas aleatoriamente na experimentação. Na hipótese em que o pesquisador tenha conhecimento de características peculiares de condições que possam gerar ruídos nos resultados dos materiais testados pela interferência das condições não homogêneas, passa a ser de suma importância a implantação de Controle Local. Apesar de não se ter uma obrigatoriedade permanente como para Repetição e a Casualização, no Controle Local apresenta-se uma obrigatoriedade sobre circunstâncias de conhecimento do problema. Restringe-se a casualização com divisões em blocos ou grupos para minimizar a influência do ambiente.

ok, mas precisei ler umas três vezes o primeiro parágrafo antes de entender que você quis dizer que os princípios são aplicados na unidade experimental.,..

[1.000] Compare os erros tipo I e II, suas mais prováveis consequências, e seu relacionamento com

nível de significância. Em um teste estatístico, que estabelece uma margem de erro, é necessário se formular hipóteses sobre a

população em questão. Chamamos de hipóteses H0 (hipótese de nulidade) e H1(hipótese alternativa).

Tendo características antagônicas, isto é, enquanto H0 afirma que os tratamentos não resultaram em comportamentos diferentes para as mesmas amostras de uma população, por exemplo, caso esta hipótese se a aceita, consequentemente H1,que diz exatamente o contrário, ou seja, que existem diferenças entre os comportamento das amostras para cada tratamento, é rejeitado. Sendo a alternativa H1 verdadeira, incorrendo nesta situação falamos que houve um erro do tipo II, uma vez que a hipótese H0 é submetida com uma maior probabilidade de ser negada, intencionalmente para corroborar com as hipóteses científicas onde tratamentos diferentes e pequena variação ao acaso resultariam em comportamentos diferentes, justificando o objetivo do estudo. Por outro lado quando a hipótese nula H0 é rejeitada e deveríamos aceita-la incorremos no erro tipo I, pois H0 era verdadeira e na inércia de justificar o experimento o pesquisador induziu o erro. Ao aceitar-se H0 tende-se cometer erro tipo II , caso rejeite-se H0 tende-se a cometer erro do tipo I incorrendo no nível de significância comumente usado de 5% .

o primeiro parágrafo está ok, mas realmente não consigo garantir que entendi o que você quis dizer sobre os tipos de erro, em particular o tipo II. Baseado no que entendi, no entanto, o principal problema de sua resposta é de que admite, pelo menos implicitamente, que o erro é do pesquisador, quando na realidade a decisão é tomada com base nos dados do experimento, e o que chamamos de erros (neste caso) são discrepâncias entre resultados amostrais (do experimento, conhecidos) e populacionais (e como todos os dados da população como um todo, desconhecidos). Então os erros correspondem à chance de um resultado aparentemente devido ao tratamento ser na realidade devido ao acaso.

[2.200] (IP:281473857335212 | 19:27:34 | 18:54:52 | 27:18 | 90.793)

Compare os erros tipo I e II, suas mais prováveis consequências, e seu relacionamento com nível de significância. A hipótese estatística é realizada sobre o valor de parâmetros nas populações, comparando dois ou mais

parâmetros. Na hipótese estatística formula-se a hipótese nula (H0), não existe diferença significativa entre os tratamentos, e a hipótese alternativa (Ha ou H1), existe diferença significativa entre os tratamentos. A hipótese testada é a hipótese nula. Para decidir se aceitam ou rejeitam as hipóteses são realizados os teste de hipóteses ou significância, durante esses testes podem ocorrer dois tipos de erro: o erro de tipo I ocorre na decisão de rejeitar o H0, sendo verdadeira. Com essa decisão afirma-se que existe diferença significativa entre os tratamentos, quando não existe diferença significativa entre os tratamentos, o controle do erro tipo I é necessário. O erro de tipo II ocorre na decisão de não rejeitar a hipótese H0, sendo este falso. Com essa decisão afirma-se que não existe diferença significativa entre os tratamentos, quando na verdade existe diferença significativa entre os tratamentos. O nível de significância é a probabilidade máxima de aceitar o erro tipo I, representado pela letra grega α. O nível de significância 5% é a probabilidade máxima de 5% de ocorrer o erro de tipo I e o α=0,01 é a probabilidade máxima de 1% de ocorrer o erro de tipo I. Quando reduz a probabilidade do erro tipo I, aumenta a probabilidade do erro tipo II, aceitar como iguais médias que são diferentes.

ok, mas tente avaliar em termos não estatísticos, ou seja entender realmente a importância e implicação dos resultados

[1.500] (IP:281473857335212 | 19:28:38 | 18:56:33 | 27:55 | 1.27)

Porque podemos afirmar que a hipótese é o ponto mais importante de um projeto de pesquisa A hipótese é o ponto mais importante porque a formulação da hipótese é o procedimento geral para qualquer

pesquisa científica. A partir das hipóteses ocorrem os procedimentos de verificação para confirmar a hipótese ou não. A hipótese indica uma teoria ou provável explicação para um fenômeno observado, sendo a base de desenvolvimento do projeto de pesquisa científica para a elaboração dos questionamentos. Os ensaios experimentais são utilizados para testar ou provar as hipóteses.

tão superficial que fica difícil de saber se entendeu realmente o que é a hipótese científica

[4.000] (IP:281473857335212 | 19:30:47 | 19:03:24 | 32:37 | 410.57) Sintetize o artigo Pennock (2004) em suas palavras.

O artigo de Pennock (2004) descreve as diversas pesquisas de campo na ciência do solo, relacionando com os delineamentos experimentais utilizados e as abordagens de amostragens em cada pesquisa. Inicialmente o autor faz uma distinção entre as categorias de pesquisas na ciência do solo, classificação de solos, estudos de contaminantes, monitoramento dos solos, gênese do solo, geoestatística, estudo de perturbações, estudo de teste padrões, estudo de modelagem, estudos comparativos de medidas e experimentos manipulativos. Descreve o tipo de amostragem utilizado em cada categoria, os principais setores (público ou privado) que executam essas pesquisas, particularidades de cada categoria, algumas relações entre as categorias e suas principais finalidades. Continua o artigo com as considerações sobre os delineamentos nos projetos de pesquisa de campo, fazendo um detalhamento das etapas do projeto de campo. A descrição da seleção dos métodos apropriados, estes terão como base as hipóteses que serão desenvolvidas na pesquisa, as informações já existente sobre o tema e a finalidade da pesquisa. A definição da população, as unidades experimentais juntamente com a amostragem experimental (seleção dos elementos amostrais) são fundamentais para o sucesso do delineamento experimental. A definição da escala, o tempo ou duração das observações, as series temporais das amostras são relevantes para os experimentos de todos os estudos de campo. As repetições dos tratamentos são utilizadas para fornecer uma estimativa de erro experimental, melhorando assim a precisão dos tratamentos através do controle da variância do erro. A definição da repetição será baseada na pesquisa estudada e definição da população. A amostragem experimental utilizada na

ciência do solo é criticada, mas existe uma praticidade de sua utilização. O autor conclui o artigo resumindo os principais pontos para o sucesso do projeto de pesquisa de campo: uma definição clara do objetivo da pesquisa, da escolha dos pontos de amostragem, da população e dos elementos da população, escolha do processo de amostragem e o número de amostras, suficientes para testar a hipótese. Ele ressalta um fator limitante para a ciência do solo, pesquisas onde os fatores analisando não podem sofrer repetições.

de modo geral ok, mas podria detalhar bem mais

[1.500] (IP:281473857335212 | 19:31:03 | 19:03:46 | 32:43 | 0.696) Discuta a diferença entre as hipóteses estatística e científica, considerando em particular as consequências desta diferença.

A hipótese científica é a construção de um problema científico, a base científica da pesquisa ou a linha que será desenvolvida a pesquisa. Pode ser também definida como a descrição do que se espera em uma determinação situação, a partir de um levantamento de uma teoria, verdadeira ou não. Para a formulação de uma hipótese é necessário um conjunto observações ou dados, para esta ser verificada ou testada. O entendimento dos resultados na hipótese científica não será baseado em um modelo matemático. As hipóteses estatísticas são suposições formuladas feitas a respeito do valor dos parâmetros nas populações, deve explicitar e sempre comparar parâmetros. A hipótese estatística é realizada para ter conclusões sobre uma ou mais populações através das estimativas de parâmetros ou pelos testes de hipóteses, ou seja, testar a nulidades dos dados. Como os dados na análise estatística vêm das estimativas de parâmetros, a decisão sobre a hipótese científica está associada a uma probabilidade de erro. A hipótese estatística avalia os dados numéricos obtidos através de modelos matemáticos fixo e contendo restrições. Na hipótese estatística formula-se a hipótese nula (H0), não existe diferença significativa entre os tratamentos, e a hipótese alternativa (Ha ou H1), existe diferença significativa entre os tratamentos. A hipótese testada é a hipótese nula.

apelou tanto para o estatiquês na parte das hipóteses estatísticas, que não consegui avaliar se realmente entendeu o assunto

[2.000] (IP:281473857335212 | 19:31:21 | 19:04:09 | 32:48 | 22.015)

Relacione princípios experimentais, variação do acaso, tamanho do experimento e grau de confiança que o pesquisador pode ter em suas afirmativas.

A variação do acaso é o efeito dos fatores não controlados que ocorrem nos experimentos em campo, porém não pode ser identificada nos ensaios experimentais, essa variação pode mascarar os resultados dos experimentos. Nos ensaios experimentais os efeitos dos fatores não controlados estão sempre presente, alterando assim os resultados obtidos. Visando minimizar os efeitos da variação do acaso são utilizados os princípios experimentais. Os princípios experimentais são compostos de repetição, casualização e controle local. O princípio da repetição é necessário para controlar a variabilidade ou heterogeneidade do meio, garantir a estimativa do erro experimental e aumentar a precisão das estimativas. A repetição na experimentação é na execução dos tratamentos que serão utilizados no experimento, com o maior número de repetições podemos diminuir o erro que acontece ao devido ao simples acaso. Porém somente o princípio da repetição não vai garantir o controle total da variação do acaso sendo necessária a utilização do princípio da casualização, atribuindo a todos os tratamentos a mesma probabilidade de serem executados a qualquer unidade experimental e assegurando a validade da estimativa do erro experimental. Quando o experimento for realizado em áreas onde as condições são heterogêneas utiliza-se o princípio do controle local, dividir um ambiente heterogêneo em vários ambientes homogêneos, pela diminuição do erro experimental. Deve-se então trabalhar com blocos, cada bloco deve ter uma uniformidade, sendo a variação dentro de cada bloco a menor possível e a variação entre blocos pode ser grande ou pequena. Este delineamento é chamado de blocos ao acaso. O controle local leva a uma diminuição do número de graus de liberdade para o resíduo. O tamanho do experimento também vai influenciar nos princípios experimentais e na variação do acaso. As dimensões do experimento serão em função do tipo de estudo que está sendo realizado e os objetivos desse estudo. As escolhas das dimensões corretas do experimento vão garantir uma maior precisão ao experimento, possibilitando a execução das repetições necessárias, distribuição aleatória dos tratamentos e como consequências uma redução dos efeitos da variação do acaso. A aplicação dos princípios experimentais nos ensaios experimentais possibilita a estimativa do erro experimental, que expressará o grau de confiança dos resultados. A estimativa do erro experimental é necessária para os testes de significância.

desde quando a variação do acaso não pode ser identificada nos experimentos? O resto está ok.

[4.000] (IP:281474038335831 | 08:16:11 | 12:46:29 | 30:18 | 61.605) Sintetize o artigo Pennock (2004) em suas palavras.

O artigo de Pennock (2004) discute sobre a concepção de programas de pesquisa de campo e suas limitações. Existem projetos de pesquisa e orientações estatísticas acessíveis a todos os níveis, porém ainda são muitos utilizados os “clássicos” para a execução dos ensaios agronômicos devido a pouca orientação ou estímulo existente. Os pedométricos têm estabelecido uma série de conveniências de projetos de amostragem de campo para a geoestatística e problemas relacionados à estatística espacial. Porém, frequentemente, os objetos de estudo não podem ser facilmente manipulados e impostos os tratamentos, dificultando bastante à aplicação dos “clássicos” modelos de pesquisa agronômica. Afirma ainda que a avaliação do estudo das pesquisas de campo não tem um foco maior na ciência do solo, ocupando este campo, em um grau maior, os ecologistas, hidrologistas e geógrafos físicos. A classificação de estudos de pesquisa assemelha-se a classificação de solos, onde existem poucos “padrões”

exemplos encontrados e tipicamente os estudos parece ajustarem-se em duas ou mais classes. Assim, Pennock, propõe desenvolver categorias de estudo que possuem diferentes abordagens de amostragem. Logo, distingue as categorias de pesquisa de campo em ciências do solo quanto ao seu objetivo: iniciativas para atender os objetivos de setor público ou de setor privado. Onde a pesquisa de contaminantes, pesquisa de solos e estudo de monitoramentos são iniciados, geralmente, pelos dois setores, público e privado. Enquanto que as outras categorias: estudos pedológicos ou geomórficos do solo, estudos pedométrico/geoestatístico, estudos de perturbação, estudos de padrão, estudos de modelo de suporte, estudos comparativos de medições e experimentos de manipulação, são iniciados ou dirigidos por curiosidades de projetos. Após a distinção de cada categoria, Pennock aborda que é necessário fazer uma seleção das categorias apropriadas à pesquisa. Afirma que, uma seleção apropriada da abordagem só pode ser feita após a formulação de uma questão de pesquisa clara. Esta definição é a etapa inicial e a mais crítica, pois determina qual o tipo de pesquisa é apropriado e o modelo específico dos acontecimentos associados com os diferentes tipos de pesquisa. A população constitui-se por todos os objetos possíveis que compartilham alguma característica comum e o desenho amostral ou experimental do projeto especifica como um subconjunto desses objetos será desenhado a partir da população. Assim, uma clara definição da população é essencial para um desenho amostral bem sucedido. Quanto à escala, a extensão é a definição temporal ou espacial da população e segue diretamente a definição da população. As questões sobre replicação estão intimamente ligadas ao teste de hipóteses experimentais. Pois a replicação é utilizada para fornecer uma estimativa de erro experimental. E por estudos de comparação mensurativa, padrão ou modelo de suporte, a questão do que constitui uma réplica é decidida através da questão de pesquisa e da definição de população. Para o espaçamento e arranjo das amostras, existem recentes revisões que têm apresentado opções de arranjo de amostragem. Modelos de amostragens sistemáticas são comumente utilizados em ciências dos solos. Muitas vezes são criticados por estatísticos, porém a facilidade com podem ser usados e a eficiência com que reúnem as informações os tornam popular para as ciências da terra. Logo, é importante considerar as diversas questões abordadas durante o artigo e suas relações com o estudo da ciência do solo para uma boa elaboração dos projetos de pesquisa de campo.

muito cuidado com o uso de tradutor automático. Não acredito que a palavra pedométrico exista em português, e tenho certeza de que não teria o sentido de pesquisador em solos se existisse. De resto, sua resposta está razoável

[1.500] (IP:281474038335831 | 08:20:46 | 12:47:31 | 26:45 | 5.398)

Relacione princípios experimentais, variação do acaso, tamanho do experimento e grau de confiança que o pesquisador pode ter em suas afirmativas.

Os princípios experimentais são a repetição, a casualização e o controle local. A repetição corresponde ao número de vezes que o tratamento aparece no experimento. É um dos princípios utilizados para controlar a variação do acaso, quanto maior o número de repetições de um experimento, menor a probabilidade de erro ele terá. Assim, a repetição aumenta a precisão da estimativa, o grau de confiança, à medida que diminui a variação do acaso através de um menor número de repetições. A casualização consiste em se distribuir aleatoriamente os tratamentos nas parcelas e as parcelas, de modo que cada um tenha a mesma chance de ocupar qualquer parcela e local na área experimental. Igualmente a repetição, a casualização assegura a validade da estimativa do erro experimental, aumenta o grau de confiança e diminui a variação do acaso para verificar se de fato o resultado é em decorrência do tratamento. O controle local é usado quando as parcelas, antes de receberem os tratamentos, apresentam diferenças entre si. Quando, em função do solo, ambiente ou material experimental, distinguirmos condições experimentais diferentes, e restringirmos a casualização dentro dessas áreas ou condições diferentes, estaremos introduzindo o princípio do controle local. Essas áreas ou condições diferentes são chamados de blocos, que têm por finalidade diminuir o erro experimental. Ao contrário dos princípios da repetição e da casualização, o princípio do controle local só é obrigatório quando as condições experimentais assim o exigir. Se elas forem homogêneas, apenas os princípios da repetição e da casualização são aplicados.

razoável, mas extremamente confuso, na minha opinião

[2.000] (IP:281474038335831 | 08:22:41 | 12:47:48 | 25:07 | 16.271) Porque podemos afirmar que a hipótese é o ponto mais importante de um projeto de pesquisa

Porque é através da hipótese formulada que o experimento de um projeto de pesquisa será desenvolvido para verificar se esta hipótese será ou não rejeitada, obter as conclusões da pesquisa. A hipótese é o eixo central de uma pesquisa, quando bem elaborada e realizada uma análise estatística adequada nos conduz a conclusões válidas.

essencialmente correto, mas você paga por palavra? Chega a ficar difícil de avalair o quanto voc~e está entendendo do porque de sua resposta deste jeito

[1.000] (IP:281474038335831 | 08:22:53 | 12:49:19 | 26:26 | 4.368)

Discuta a diferença entre as hipóteses estatística e científica, considerando em particular as consequências desta diferença.

As hipóteses estatísticas são suposições, que podem ou não ser verdadeiras, e consistem em considerações a respeito das distribuições de probabilidade das populações. Ao formularmos uma hipótese estatística objetivamos rejeitá-la ou invalidá-la. Logo, as hipóteses estatísticas podem ser hipótese de nulidade (H0) ou hipótese de alternativa (Ha). Assim, ao formularmos uma hipótese inicial de que não existem diferenças entre os tratamentos,

assumimos que quaisquer diferenças observadas são devidas, exclusivamente, a fatores não controlados ou acaso. Esta hipótese inicial é denominada hipótese de nulidade (H0). Porém, ao admitir esta hipótese como verdadeira, se verificarmos diferenças significativas, rejeitamos H0 em favor de outra hipótese denominada hipótese de alternativa (Ha). As hipóteses científicas são aquelas que não podem ser testadas matematicamente, são as hipóteses em que se baseia o experimento ao qual o pesquisador fará suas verificações através de testes estatísticos.

confuso e muito difícil de identificar se realmente entendeu a diferença entre as hipoteses estatística e científica, e seu relacionamento, muito menos sobre a consequência da diferença entre elas

[1.000] (IP:281474038335831 | 08:23:33 | 12:50:00 | 26:27 | 4.524)

Discuta os principais tipos de testes de hipóteses, relacionando em particular com o tipo de informação que podemos tirar deles

Os principais tipos de testes de hipóteses aplicados na estatística são: o teste F, o teste t, o teste de Tukey, o teste Chi-Quadrado e os Contrates Ortogonais. O teste F é utilizado para comparar variâncias de tratamentos. Ele expressa a comparação da variância de tratamentos com a variância do erro experimental. Quanto maior o valor de F, menor será a variação devida ao acaso. Através da análise de variância de um experimento com apenas dois tratamentos podemos concluir qual o melhor tratamento através do teste F. Porém, quando temos mais de dois tratamentos não é possível fazer essa conclusão através do teste F. O teste t é usado para comparar médias de tratamentos. Através dele podemos verificar quais os melhores ou piores tratamentos. Quando aplicamos o teste t estamos testando se os tratamentos diferem ou não entre si. O teste de Tukey é usado para comparar todo e qualquer contraste entre duas médias de tratamentos. O teste é mais exato quando o número de repetições das médias dos tratamentos avaliados é igual. É bastante rigoroso e de fácil aplicação. O teste Chi-quadrado compara as frequências observadas com as frequências esperadas. Quanto menor for à medida da discrepância existente indica que menor será a diferença atribuída ao acaso. Os Contrastes Ortogonais ocorrem quando o somatório da multiplicação dos coeficientes de cada média em cada contraste é igual à zero. Assim, se dois ou mais contrastes são ortogonais entre si, as comparações neles feitas são comparações independentes.

superficial, não identificou é apenas um dos muitos testes de hipóteses do mesmo tipo geral de comapração de médias, nem indicou que reconhece os limites que cada tipo de teste tem

[2.000] (IP:281473657738330 | 17:42:42 | 20:06:51 | 24:09 | 10.079)

Discuta os princípios experimentais e sua importância, incluindo formas de aplicação Para execução de um experimento todo o cuidado é pouco por parte de nós pesquisadores, para se alcançar

uma boa precisão do experimento. Sendo alcançado, evitando os erros sistemáticos, e a correta aplicação dos princípios da experimentação (REPETIÇÃO; CASUALIZAÇÃO E CONTROLE LOCAL), usar a experiência e organização para o êxito da pesquisa. A repetição, mede melhor a variação ao “acaso”, onde “não” possamos controlar, sendo uma segurança da confiabilidade dos dados, estimando, diminuindo ou “controlando” o erro experimental. Isso devido à influência do numero de vezes que o T- tratamento se repete (aparece, visto), consequentemente aumentando o custo operacional, e o importante o seu uso devido aos diferentes comportamentos das amostras e do conjunto avaliado. Sendo muito utilizado tanto em ambientes já conhecidos ou acha que é conhecido e ambiente desconhecido. Ex: coletar quatro amostras da mancha do solo em diferentes profundidades para a análise do teor de Cobre. Sendo uma aplicação prática do efeito da repetição em diferentes espaços para observação do comportamento. A casualização dá condições iguais aos tratamentos na parcela e a garantia que todos tenham mesmo ‘direito’, não favorecendo ninguém, garantido com isso que os erros sejam isolados. Sendo que os tratamentos são sorteados de forma honesta e distribuídos de forma aleatória, onde que todos tenham a mesma possibilidade que o outro em ocupar um determinado lugar no desenho experimental, sem levar em consideração a nossa vontade tendenciosa. Podem ser aplicadas através dos diferentes delineamentos ou conjunto deles para correção da variabilidade. Ex: como uso de duas soluções nutritivas e com 24 unidades experimentais, onde metade será utiliza Solução de Castellane e a outra metade Solução Furlani, sendo feito o sorteio dos tratamentos (em vasos de com 8 plantas de coentro), para obter a posição inicial, e quais soluções seria aplicada, isso para evitar o favorecimento ou desfavorecimento. O controle local pode ser opcional, onde a variação que conheço e garanto que naquela situação conhecida a mesma irá surgir. Isso quer dizer que identifico os fatores que fazem parte da variação do acaso. Sendo sua aplicação em ambientes heterogêneos, porém para que se tornem homogêneos para melhor controle dos erros, e se torne um ambiente controlado ou perto disso ,diminuindo assim a variação. Podemos realizar o controle local no campo quando verificamos diferenças no relevo e na casa vegetação ou laboratório evitando locais que favoreça algum e o outro não.

a repetição é a única forma de medir a variação do acaso, e na realidade não controla o acaso. No entanto, o geral está muito bom.

[2.200] (IP:281473657738330 | 17:44:02 | 20:07:14 | 23:12 | 2.1) Porque podemos afirmar que a hipótese é o ponto mais importante de um projeto de pesquisa

Sim, por que ela é quem vai nortear ou basear todas as etapas posteriores da pesquisa, desde a elaboração do projeto, execução do mesmo (desenho experimental), obtenção dos dados e a avaliação dos resultados, além em casos de reformulação do mesmo, esta só será feita com base no que foi pensado ou argumentado na hipótese, que “onde se sabe possivelmente ninguém pensou ainda”.Existem hipóteses cientificas e estatísticas. Sendo que hipótese cientifica é a que baseia o experimento, ou melhor fazer os testes contra para que se obtenha uma diferenciação, isso é feita por uso de negação e os conhecimentos obtidos na literatura serviram de fontes de negações e afirmações da ideia central isso não em cálculos matemáticos e sim por consultas. A hipótese estatística que em “alguns casos” ou “quase todos” ou “nenhum caso ” vem contra com a hipótese do pesquisador, pois é a partir dessa linha que se escolher Ho ( não existe diferença observada se faz o teste) ou H1(resultado significativo, não testa).

excelente

[1.500] (IP:281473657738330 | 17:44:25 | 20:07:56 | 23:31 | 3.175) Discuta os principais tipos de testes de hipóteses, relacionando em particular com o tipo de informação que podemos tirar deles

A escolha do teste é feito para determinada situação, sendo visto a maneira como a amostra foi obtida, qual população se extraiu a amostra e o tipo de mensuração nas definições operacionais das variáveis envolvidas, isto é, o conjunto de valores numéricos e ainda o tamanho da amostra disponível, sendo usados para averiguar se e sustentar uma hipótese. ] Num teste de hipóteses há sempre duas hipóteses, a hipótese nula (H0) e hipótese alternativa (H1), sendo feito para que seja determinada que a hipótese seja aceita ou rejeitada, sendo posteriormente após analises de dados, decidir sobre a veracidade ou falsidade da hipótese e definir os erros, pois será tomada uma decisão em condições de incerteza, sendo para isso estabelecer a decisão ou melhor vai-se rejeitar H0, ou seja, afirmar H1, ou vai-se aceitar H0, ou seja, nesta situação particular, afirmar H0.Sendo que o nível de significância controla o erro tipo I (rejeitar H0 que na realidade existe), onde causa mais prejuízos (tomada de decisão) aumentando com isso a chance máxima do erro tipo II (não existe diferença mas na realidade existe essa diferença). O nível de significância do teste é, na realidade, a probabilidade de se rejeitar a hipótese nula, quando ela é verdadeira, sendo então a possibilidade cometer um erro experimental. Testes mais comuns: *Chi-quadrado (comparação do que era esperado, muito utilizado no melhoramento genético) * Teste F (comparação ao acaso e ao tratamento) *Teste t (comparar médias de tratamentos,amostragem; exige que as comparações definidas sejam contrastes ortogonais. ) *Teste Tukey (é usado na análise de variância para comparar duas médias de tratamentos.)

a primeira parte está ok, mas a parte final está excessivamente sumária

[2.000] (IP:281473657738330 | 17:45:34 | 20:08:34 | 23:00 | 36.125) Discuta a afirmativa: "Toda descrição de uma amostra de dados precisa de pelo menos dois valores", e justifique sua posição

Sim, este está relacionado com a importância da repetição , já que toda e qualquer maioria de amostras biológicas estão sujeitas aos fatores ou fontes de variação não conhecidas, que as vezes o pesquisador não evita por desconhecimento ou por realmente não poder evitar. Então, de uma mesma amostra se faz necessário obter repetições dela ou réplicas para tentar reduzir (erro aleatório ou resíduo ou erro experimental. Onde a réplica é parte da amostra, são iguais, já a repetição são amostras distintas.

ok. a diferença entre réplica e repetição não está muito clara, mas me parece que você pegou a diferença a contento.

[1.000] (IP:281473657738330 | 17:45:56 | 20:15:21 | 29:25 | 379.899)

Sintetize o artigo Pennock (2004) em suas palavras. A pesquisa de campo onde é levado em consideração os desenhos experimentais é de grande importante

para levantamento de solos e descrição do para a elaboração de projetos. Sendo de grande valia , mas confrontados com literatura, através de uma revisão bem feita para que as suposições e hipótese, por uso de negação e os conhecimentos obtidos serviram de fontes de negações e afirmações da ideia central isso não em cálculos matemáticos e sim por consultas. O teste de hipótese, com o aumento de repetições para garantia do teste, mas levando em consideração as questões biológicas e o problema. Os projetos de pesquisa de campo está constantemente se utilizando de aparatos e objetivos nos experimentos para obter novos fatos, negar ou confirmar hipóteses ou resultados obtidos anteriormente, isso em escala de pesquisa consolidada e sempre confrontando com outras áreas e visões como processos biológicos, a questão ambiental e o clima. E não apenas interpretar ou colher dados mas sim a inovação e a reavaliação observando outros campos de visão e não apenas seguir aquela linha que lhe dá segurança. Um ponto de grande importância ou a de maior e pouco observada pelos pesquisadores é a amostragem, sendo que a ideia do artigo é adequar uma ou duas amostragens para as diferentes linhas da ciência do solo e sua relação com

outras áreas das ciências naturais (contaminação do solo,levantamento de perfis, monitoramento ou comportamento do solo, gênese e morfologia dos solos e outros definidos pelos autor). Outra preocupação do autor é o uso da geoestatistica através do uso de modelos que levam em consideração o espaço, isso através de observações dos fenômenos. E critica os pesquisadores que pulam e negam usar tal análise e acha pouco a geração de dúvidas e questionamentos sobre tal uso da geoestatistica nos diferentes aspectos, que futuramente será a afirmação para muitos problemas. Mas para conseguir o uso de aspectos geoestatisticos muitas considerações ainda tem que ser definidas como para uma pesquisa clara e concisa para tal uso, como também a definição da população/unidades experimentais, o uso de observações lineares porém seguindo o uso em três visões conjuntas.Outro problema encontrado é quantas repetições ou talvez réplicas ou pseudoreplicações das observações são usadas para diminuir o erro. Alguns pesquisadores que medem erosão estam usando Césio-137 para obtenção de observações temporais. As questões estam expostas para todos agora basta alguém dançar e responde-las, sendo que pesquisadores incrementem seus projetos de pesquisa de campo usando as observações e construam hipóteses baseada em diferentes linhas e áreas.

A leitura está no mínimo muito complicada. Tente usar a ordem direta sempre que possível. A impressão que está dando é que são frases do artigo traduzidas via Google, de tão truncadas que estão. De um modo geral discutiu pouco o material central do artigo

[2.000] (IP:281474038335831 | 08:37:19 | 21:07:54 | 30:35 | 4.82)

Compare os erros tipo I e II, suas mais prováveis consequências, e seu relacionamento com nível de significância.

O erro tipo I ocorre pela rejeição da hipótese nula (H¬0) quando ela era de fato verdadeira. Já o erro tipo II ocorre quando a hipótese nula (H¬0) é aceita quando de fato é falsa. O erro tipo I é mais grave que o erro tipo II, pois o erro tipo I esta relacionado diretamente com perdas, ou seja, com desvantagens significativas sobre o que foi estudado. Já o erro tipo II, é caracterizado pelo desprezo do aperfeiçoamento ou vantagem sobre o que foi estudado. De fato, no erro tipo II ocorre à perda de um conhecimento mais evoluído sobre o que foi estudado, porém suas consequências são menos nocivas. O nível de significância (a probabilidade máxima de rejeitar (H¬0)) afeta diretamente as possibilidades de se cometer o erro tipo I ou tipo II, dependendo do nível de significância adotado as chances de cometer um destes erros variam. Os níveis de significância variam em função do erro tipo I, por ser considerado o mais grave, para reduzir as chances de se cometer este erro os níveis de significância utilizados são relativamente baixos, em contra partida, as possibilidades de se cometer o erro tipo II aumentam consideravelmente.

essencialmente ok, mas continua com respostas extremamente sumárias

[0.000] (IP:281474038335831 | 08:37:57 | 21:09:28 | 31:31 | 1.326) Discuta a diferença entre as hipóteses estatística e científica, considerando em particular as consequências desta diferença.

A hipótese estatística limita-se a análise de dados numéricos, que são obtidos através de modelos matemáticos fixos e com limitações, que não o permite uma avaliação das variáveis complexas e multáveis. A hipótese científica é baseada numa proposta para resolução de um determinado problema, a partir de um conhecimento teórico por inferência dedutiva. Porém a hipótese científica, por se só, não é suficiente para afirmar que uma dada solução é viável ou não para um dado problema. Para fundamentar a hipótese científica e provar sua veracidade ou não, é necessário os levar em consideração a hipótese estatística. As hipóteses estatísticas e científicas são complementares e essenciais para avaliação de soluções para o problema em questão. Apesar de que, em algumas áreas de pesquisas, a hipótese estatística não é utilizada.

não tenho a menor idéia de onde saiu a parte de hipótese científica, que pelo menos no meu português ficou absolutamente sem pé nem cabeça

[3.500] (IP:281474038335831 | 08:40:08 | 21:12:07 | 31:59 | 2.028)

Sintetize o artigo Pennock (2004) em suas palavras. O artigo Pennock (2004), retrata a importância do desenvolvimento de pesquisas de campo, nas diversas

áreas que compõem a ciência do solo, que levem em consideração os princípios estatísticos, uma metodologia adequada, acompanhada de um bom embasamento teórico para a adoção do teste de hipótese adequado. Descreve a necessidade dos pesquisadores em se aprofundar sobre os métodos de avaliação que satisfaçam os objetivos de suas pesquisas e, até mesmo, a criação de novas metodologias que promovam o desenvolvimento cientifico. Relacionou as diversas categorias de pesquisas em ciência do solo com seus respectivos executores, órgãos e profissionais, descrevendo os principais problemas e, ou, limitações que dificultam uma avaliação precisa dos resultados, correspondente a cada categoria. Sendo os problemas mais frequentes a formação de hipóteses e a adoção de metodologias que se enquadrem para avaliação da mesma, definição do espaço de coleta, o tipo de amostragem e a necessidade da criação de novas metodologias que atendam as hipóteses levantadas e possam proporcionar o desenvolvimento científico. Descreve os parâmetros estatísticos que devem ser considerados em campo com base em diversas literaturas, quanto à escala, a questão da pesquisa, definição da população e unidades experimentais, amostragem, espaçamento, layout.

Através deste trabalho percebe-se a necessidade de observação e estudo da questão da pesquisa para realizar um projeto eficaz, e também o desenvolvimento de novos desenhos de pesquisa de campo, para promover o crescimento científico.

embora essencialmente correto, me parece mais com uma interpretação de um resumo do que de um artigo daquele porte. tamanho não é documento, lógico, mas fica muito, muito difícil julgar o grau de compreensão de um artigo com aquela densidade de informação com base nesta sua resposta

[2.000] (IP:281474038335831 | 08:40:37 | 21:12:32 | 31:55 | 4.804)

Discuta os principais tipos de testes de hipóteses, relacionando em particular com o tipo de informação que podemos tirar deles

Existem vários tipos de testes de hipóteses, a escolha vai depender do que se quer saber e dos dados que se vai trabalhar. O teste do Chi-quadrado é bastante utilizado nas ciências biológicas, é um método adequado para avaliar proporções, onde são comparados os valores observados com os esperados. Teste F é utilizado para descrever se houve efeito ou não de todos os tratamentos utilizados na avaliação, através da relação entre variação devido ao tratamento sobre a variação devido ao acaso. O resultado desta relação é comparado com o nível de significância adotado, se o valor do Teste F for superior ao valor nível de significância, houve diferenças através dos tratamentos, se for inferior, os tratamentos não diferiram, e se for igual a 1, a variação dos tratamentos não diferem da variação ao acaso. Teste t é bastante utilizado para amostragem, e serve para comparação entre dois tratamentos ou grupos independentes ou correlacionados, também permite a utilização da regressão para correlacionar os tratamentos estudados. O teste de Tukey é baseado na comparação de médias entre todos os tratamentos adotados. E, através do cálculo da menor diferença entre dois tratamentos que dificilmente aconteceria devida ao acaso (Δ), define se diferem significativamente entre-se ou não. Onde essa diferença mínima significativa deve ser maior ou igual para que os tratamentos defiram significativamente, do contrário não diferem.

essencialmente ok, mas não levou em consideração que tukey é apenas um dos muitos testes de comparação de médias

[2.200] (IP:281474038335831 | 08:41:16 | 21:13:43 | 32:27 | 69.639)

Porque podemos afirmar que a hipótese é o ponto mais importante de um projeto de pesquisa

A hipótese é uma suposta e provável resposta frente a um dado problema. Através da hipótese se tem a direção do projeto de pesquisa, que deve corresponder em objetivos e metodologias que possam, por usa vez, avaliar corretamente a hipótese a ser testada. Essa hipótese deve ter um embasamento teórico bem fundamentado e um correto raciocínio lógico, a fim de evitar contradições dentro do projeto de pesquisa. bem definido [2.200] (IP:281473654486815 | 19:26:34 | 20:24:55 | 58:21 | 17.037)

Porque podemos afirmar que a hipótese é o ponto mais importante de um projeto de pesquisa Porque como a pesquisa científica baseia-se no geral na enunciação e verificação das hipóteses, estas

estabelecem possíveis respostas ao problema em questão de algo desconhecido, essa suposição é provisória, devendo ser testada para verificar sua validade. Dependendo da formulação da problemática, da verificação mediante os testes e da interpretação dela é que se obterá respostas correspondentes ao real. Ela irá levar a tomada de decisões acertadas ou não (dependendo do conhecimento do pesquisador, por exemplo). Irá fundamentar a pesquisa bem como fornecer as respostas dos questionamentos pesquisados mediante a realização dos testes, sendo necessário um aprofundamento sobre o assunto em questão, para formular hipóteses adequadas com o objetivo do que se deseja pesquisar. Durante o planejamento da pesquisa é necessário elaborar planos de experimentação visando contestar as hipóteses e assim verificar sua relação com o material de estudo. Estas se classificam em científicas e estatísticas. A hipótese estatística é baseada em um modelo matemático e não permite avaliar variáveis multáveis. Já a hipótese cientifica não se baseia apenas na hipótese estatística, sendo importantes outros critérios como a experiência do pesquisador, conteúdo pesquisado, imparcialidade na interpretação dos dados e outros.

excelente [2.200] (IP:281473654486815 | 19:29:07 | 20:26:44 | 57:37 | 8.944)

O fato de termos mais de um valor para uma dada variável, no mesmo tratamento, indica que o princípio da repetição está sendo obedecido? Discuta.

Depende. Se todos os valores obtidos foram provenientes de uma mesma unidade experimental de um mesmo tratamento esse princípio não esta sendo obedecido. Entretanto, se cada valor obtido corresponder a cada uma unidade experimental de um mesmo tratamento o princípio esta sendo obedecido. Por exemplo: Se existem 4 tratamentos no total, mas tomando-se apenas um tratamento (T1) para a exemplificação, sendo a variável a altura de plantas, e obtendo-se 10 valores distintos para uma mesma unidade experimental nesse tratamento, nesta situação não existe repetição, mais sim (replicatas - de valores mesmo que diferentes) de uma mesma unidade experimental,

não atendendo o critério do principio da repetição. Agora, se esses 10 valores obtidos corresponderem cada um a uma unidade experimental nesse (T1), o princípio esta sendo obedecido. O que importa para que este principio seja obedecido, é que cada valor obtido corresponda a cada uma unidade experimental de um mesmo tratamento. A repetição corresponde ao número de unidades experimentais que receberão um mesmo tratamento. Se não tem repetição não tem como estimar o erro experimental. Ao se montar um experimento, este tem que refletir a real situação da população, onde o tamanho e representatividade desta amostra depende do número de repetições, que depende da variabilidade natural da variável das unidades experimentais.

excelente diferenciação de réplica e repetição [2.200] (IP:281473654486815 | 19:35:15 | 20:30:22 | 55:07 | 202.512)

Relacione princípios experimentais, variação do acaso, tamanho do experimento e grau de confiança que o pesquisador pode ter em suas afirmativas.

A variação do acaso é algo que sempre existirá, sendo devida aos fatores não controlados, poderá influenciar bastante nos resultados, daí a importância do pesquisador utilizar mecanismos para que essa interferência possa ser atenuada, empregando-se assim os princípios experimentais {repetição, casualização e controle local (opcional)}, para tentar reduzir esta variação e minimizar os erros de modo que o experimento (amostra) possa representar bem a população. O tamanho do experimento será variável de acordo com os recursos disponíveis sejam eles da ordem financeira, física, estrutural, operacional ou outros e do objetivo da pesquisa. Será maior (tamanho) se tiver mais dinheiro e mão de obra disponíveis, e caso a pesquisa necessite, mas o importante é que independente do tamanho tem que retratar bem a situação da população. Ele poderá ser grande (tamanho) e não representar bem a população ao passo que um menor (tamanho) represente bem, ou vice e versa o que irá interferir nisso é se o pesquisador seguiu corretamente os procedimentos na instalação, condução e demais etapas do experimento, bem como na fase de processamento dos dados obtidos. Quanto maior o tamanho do experimento, mais este poderá fornecer maiores informações a respeito da população, entretanto caso não seja bem elaborado, desenvolvido, poderá não corresponder bem ao real. Já um de menor tamanho poderá representar bem a população desde que bem realizado, ou não, caso seu tamanho seja muito reduzido e se faça uma subestimação ou superestimação do real (população). Estes experimentos deverão ser feitos baseados nos princípios experimentais que visam evitar e controlar os erros, bem como qualquer favorecimento ou desfavorecimento de um ou outro tratamento, garantindo a imparcialidade, de modo que o mesmo reflita adequadamente a população. A partir da repetição poderá obter-se uma estimativa do erro experimental (variância) e dos efeitos e médias dos tratamentos, além de dar uma maior segurança ao experimento, pois caso só se tivesse coletado uma vez, como saber se aquele valor era devido ao acaso ou seria realmente do tratamento. A repetibilidade irá permitir ter amostras que realmente representem bem o todo. A replicação é utilizada para fornecer uma estimativa do erro experimental, para melhorar a precisão através da redução do desvio padrão de meios de tratamento ou de classe, para aumentar o escopo de inferência, e para efetuar o controle do erro da variância. No caso da casualização ela serve para evitar qualquer favorecimento ou desfavorecimento de um ou outro tratamento durante a pesquisa, dando condições igualitárias para todos os tratamentos. Geralmente fazem-se sorteio para definir onde cada tratamento ficará, evitando que o pesquisador possa intervir mesmo que inconscientemente. Esta valida a estimativa do erro experimental (variância), permitindo predições da análise de variância e evita erros. Já o controle local é opcional, só deve ser empregado se existir heterogeneidade no ambiente e se o pesquisador identificar e tiver fundamentação para saber quais são as diferenças, pois caso contrário acarretará em erros, comprometendo as inferências para a população. Já o grau de confiança é a probabilidade (α-1) do intervalo de confiança conter o verdadeiro valor do parâmetro, fornecendo assim elementos para se discutir a precisão da estimativa.

excelente [1.500] (IP:281473654486815 | 19:37:36 | 20:40:49 | 03:13 | 13.306)

Discuta a afirmativa: "Toda descrição de uma amostra de dados precisa de pelo menos dois valores", e justifique sua posição

Concordo. Pois, fazer a descrição de uma amostra apenas com um valor não é suficiente para ter dados confiáveis nem que estes possam serem testados estatisticamente. Com um valor não dá para saber se ele representa a população, ou se foi obtido mediante o acaso. Quando existem dois valores já se pode obter as medidas de tendência central (média, mediana, moda), amplitude, desvio padrão, coeficiente de variação, a variação, entre outros, os quais serão importantes para as respostas da minha pesquisa. A média é obtida pelo somatório de todos os valores dividido pelo número de valores totais. Com dois números é possível ter essa medida, se fosse apenas um, não. No caso da mediana para números pares obtém-se a mesma pela soma dos dois valores que estão nas posições centrais e divide-se por dois, como no mínimo são dois números, esta medida também se enquadra. A moda refere-se aos números mais comuns, se só existe um, como vou saber que esse é comum, agora com dois, já se pode saber. A amplitude que é obtida pela diferença do maior e menor número, respectivamente, se tivesse apenas um número, não se podia calcular, entretanto com dois sim, desde que sejam diferentes esses números.

ok, mas não levou em consideração possível diferença entre réplica e repetição, nem discutiu o porque há esta necessidade.

[4.000] (IP:281473654486815 | 19:38:25 | 20:44:20 | 05:55 | 7.487) Sintetize o artigo Pennock (2004) em suas palavras.

O artigo aborda que as pesquisas de campo em ciência do solo são limitadas a algumas atividades e estas de ordem “clássica”, necessitando de programas mais compatíveis com amostragens adequadas para cada categoria. Os dois critérios usados para classificar os estudos de campo são: no primeiro, ocorre uma perturbação do meio devido a interferência antrópica e do outro lado não. No segundo, o grau de controle é exercido pelo observador podendo dar margem a alguma manipulação, ao passo que em um experimento controlado isso é menor. Relata que existem três categorias de pesquisa em ciência do solo (setor privado, setor publico, e pesquisador), onde destes o pesquisador é o que abrange maiores linhas de investigação. E que o número de amostras para uma melhor amostragem é maior quanto menor é a probabilidade do erro tipo I e o tamanho do efeito (% de diferença real entre os meios). No setor privado, geralmente são os consultores ambientais que fazem a avaliação do nível da contaminação podendo chegar até o estágio final que é a reparação do problema, utilizam amostragens de julgamento que são baseadas no conhecimento do consultor, podendo ser precisa nas estimativas de parâmetros populacionais, mas não podem fornecer uma medida de precisão destes parâmetros. No setor publico o levantamento de solos financiado pelo governo está em declínio na maior parte do mundo . E para fins de inventário a consultoria ambiental é que esta fazendo este trabalho. Nesses dois casos a amostragem é realizada por seleção criteriosa de pontos de amostragem e descrição de perfis. Nos estudos de monitoramento estes avaliam a presente situação e as tendências de diferentes recursos naturais, relatando a necessidade do claro e conciso objetivo do monitoramento dada a ampla diversidade de projetos. No quesito pedologia e estudos de geomorfologia do solo, estuda-se eventos passados para saber como estes interferem nos solos, tendo a geologia do quaternário como fundamentos da abordagem geomorfológica do solo. O geomorfologista Schumm relata que o objetivo da geomorfologia é compreender não só a física e química da paisagem, mas a sua alteração e evolução através tempo. São utilizados técnicas de datação para obter a cronologia dos acontecimentos. Na geoestatística e nos estudos de pedometria, estes abrangem amplas variedades, mas que geralmente são realizados visando quantificar o padrão espacial das propriedades do solo, utilizando esta quantificação na interpolação de valores em locais não amostrados, avaliando assim a adequação de diferentes modelos espaciais para os processos, ou na concepção de eficientes programas de amostragem. Os estudos de contaminação são poucos na ciência do solo, mas são importantes na monitoração da poluição ambiental. Nos estudos padrão a quantificação do espaço e variabilidade temporal das propriedades e geração de hipóteses e ensaios usando padrões de pontos, são temas típicos deste estudo. Os padrões são bem variáveis, podendo variar de simples observações visuais até fomulações de hipoteses e ensaios de maior complexidade. Através desta categoria fazendo uso de estudos de padrões espaciais sobre a erosão do solo utilizando a redistribuição de Cs137 obtiveram-se importantes resultados que acarretaram na “descoberta” de redistribuição de preparo do solo. No apoio ao estudo de modelagem o desenvolvimento de funções de pedotransferência é uma categoria específica deste tipo de estudo. Em estudos comparativos mensurativos o pesquisador define as classes do estudo, neste estudo a população está disponível para a amostragem e aqueles que estão em uma secção de peças contrastantes da população é que são realizados. Como exemplo pode-se citar a relação entre a susceptibilidade dos diferentes materiais de origem à erosão. Tratando-se dos estudos de manipulação dos tratamentos apenas neste é que se pode utilizar a “experiência”. O principal problema enfrentado pelos cientista da ciência do solo na escolha destas técnicas é no quesito replicação. Também são relatados no texto algumas considerações nos quesitos; seleção da categoria apropriada, definição da população e unidades experimentais, questões de escala, problemas de replicação, espaçamento da amostra e layout. Referindo-se a seleção da categoria apropriada, deve ser realizada uma formulação clara das questões da pesquisa, e uma revisão de literatura impecável. Para definir a população e as unidades experimentais é necessário clareza quando a for fazer, e um bom desenho amostral ou experimental. Usar a geoestatistica antes do programa de amostragem seria o melhor, mais devido a vários fatores muitas vezes não se faz. Em questões de escala, devem ser avaliados alguns aspectos, entre eles; a unidade amostral, o layout das amostras e a extensão. Quanto a replicação, em alguns estudos o pesquisador define, em outros não, e nos casos que não existe replicação é relatado que os trabalhos não deveriam serem publicados, a não ser quando bem justificados, isso mais na área de pedologia e geomorfologia, podendo estender a outras. Atenta ainda para a pseudoreplicação, devendo-se definir claramente a população de estudo e os elementos que a compões para evitar isso. E cita também que em certos casos não tem como fazer essa replicação. Aborda ainda sobre a potência dos testes, que se dá em função de quatro fatores: nível escolhido, a variação dos grupos da amostra, o número de amostra em cada grupo, e o tamanho do efeito (a real diferença entre os grupos). Na questão do espaçamento e layout da amostra existe vária opções disponíveis para o projeto de amostragem. E por fim aborda as questões que devem ser consideradas num projeto de campo para este ser bem sucedido. São estes: definir claramente a questão da pesquisa; adequar o projeto de pesquisa; justificar a seleção de pontos de amostragem na pedologia e estudos geomorfologicos; definir claramente a população e os elementos que a compõe; a amostra, o espaçamento, e a extensão devem ser coerentes com o que se sabe dos processos que controlam os fenômenos estudados; na contrução das hipoteses, estas devem ser baseada em raciocínio e as amostram devem serem medidas e tomadas para permitir o teste confiável das hipoteses alternativas e excluir fenômenos que não podem ser replicados , pois estes limitam a expansão do conhecimento em solos. Além da necessidade cada vez maior de abordagens inovadoras, sejam elas inovações em design de pesquisa de campo ou de outros tipos.

embora excelente resumo do artigo, não discutiu mais detalhadamente a parte de amostragem, a meu ver