Repensando a Avaliação - LaPEF - USP

Repensando a Avaliação - LaPEF - USP Repensando a Avaliação - LaPEF - USP

lapef.fe.usp.br
from lapef.fe.usp.br More from this publisher
19.04.2013 Views

Repensando a Avaliação Cesar Nunes Introdução Na década passada presenciamos um fenômeno em escala mundial: a criação de novos parâmetros e diretrizes curriculares em muitos países e estados. Esse fenômeno refletia a necessidade de repensar a educação e adequá-la a uma realidade, num jargão já batido, chamada de era do conhecimento. Vários livros compilaram, sob a ótica dessa época, os pontos mais importantes de teorias e práticas educacionais conhecidas até então. Entre eles ressaltamos “Schools for Thought” (BRUER, 1993), “A Cultura do Pensamento na Sala de Aula” (TISHMAN et al., 1999) e “Teaching for Undertanding” (WISKE, 1998). As ciências cognitivas trouxeram avanços notáveis no entendimento de como as pessoas pensam e aprendem. O já célebre “How People Learn” (BRANSFORD et al., 2000) sintetiza as maiores mudanças sobre as concepções de aprendizagem e examina as implicações para novos ambientes de ensino e aprendizagem. O processo de repensar a avaliação deveria ser indissociável do processo de repensar a educação. Embora possa parecer óbvio, não foi o que aconteceu num primeiro momento. A sobrevalorização de testes e exames de larga escala com seus objetivos testes de conteúdo tem impedido uma maior disseminação de práticas educacionais que trabalhem valores, competências e habilidades. A maioria dos documentos de diretrizes educacionais dos vários países contém a expectativa do desenvolvimento de habilidades de ordem mais alta como: capacidade de resolver problemas, autonomia, pensamento crítico, capacidade de trabalhar em grupo, etc. Por outro lado temos já há bastante tempo exames extremamente objetivos e dados quantitativos como: número de questões corretas em testes de múltiplas escolha, índices de repetência e evasão, etc. O problema não está na existência ou uso dos exames objetivos e dos dados quantitativos e sim na falta de instrumentos que permitam interpretar e avaliar dados mais qualitativos dando indicações sobre o desenvolvimento das habilidades de ordem mais alta. Exames de larga escala, inteligentes, como PISA, ENEM, etc. elevaram a qualidade dos testes a um nível de excelência dentro das possibilidades desse formato. Porém, será que não existem outros formatos de avaliação que permitam maiores inferências sobre o desenvolvimento do conhecimento, das habilidades e competências dos aprendizes? Será que não existem instrumentos mais efetivos para que os próprios alunos tenham maior consciência do que sabem e do que não sabem e que guiem melhor seus processos de aprendizagem? Será que não existem outras ferramentas que facilitem a vida do professor na avaliação de processos e não apenas de resultados? Qual a relação entre esse tipo de instrumento e aqueles usados em avaliações de larga escala? Instrumentos e métodos de avaliação condizentes com essas expectativas existem numa escala ainda muito pequena ou mesmo experimental como mostra o excelente trabalho de revisão e compilação “Knowing what students know” (PELLEGRINO et al., 2003).

<strong>Repensando</strong> a <strong>Avaliação</strong><br />

Cesar Nunes<br />

Introdução<br />

Na década passada presenciamos um fenômeno em escala mundial: a criação de novos<br />

parâmetros e diretrizes curriculares em muitos países e estados. Esse fenômeno refletia a<br />

necessidade de repensar a educação e adequá-la a uma realidade, num jargão já batido,<br />

chamada de era do conhecimento.<br />

Vários livros compilaram, sob a ótica dessa época, os pontos mais importantes de teorias e<br />

práticas educacionais conhecidas até então. Entre eles ressaltamos “Schools for Thought”<br />

(BRUER, 1993), “A Cultura do Pensamento na Sala de Aula” (TISHMAN et al., 1999) e<br />

“Teaching for Undertanding” (WISKE, 1998). As ciências cognitivas trouxeram avanços<br />

notáveis no entendimento de como as pessoas pensam e aprendem. O já célebre “How<br />

People Learn” (BRANSFORD et al., 2000) sintetiza as maiores mudanças sobre as<br />

concepções de aprendizagem e examina as implicações para novos ambientes de ensino e<br />

aprendizagem.<br />

O processo de repensar a avaliação deveria ser indissociável do processo de repensar a<br />

educação. Embora possa parecer óbvio, não foi o que aconteceu num primeiro momento. A<br />

sobrevalorização de testes e exames de larga escala com seus objetivos testes de conteúdo<br />

tem impedido uma maior disseminação de práticas educacionais que trabalhem valores,<br />

competências e habilidades. A maioria dos documentos de diretrizes educacionais dos<br />

vários países contém a expectativa do desenvolvimento de habilidades de ordem mais alta<br />

como: capacidade de resolver problemas, autonomia, pensamento crítico, capacidade de<br />

trabalhar em grupo, etc. Por outro lado temos já há bastante tempo exames extremamente<br />

objetivos e dados quantitativos como: número de questões corretas em testes de múltiplas<br />

escolha, índices de repetência e evasão, etc.<br />

O problema não está na existência ou uso dos exames objetivos e dos dados quantitativos e<br />

sim na falta de instrumentos que permitam interpretar e avaliar dados mais qualitativos<br />

dando indicações sobre o desenvolvimento das habilidades de ordem mais alta. Exames de<br />

larga escala, inteligentes, como PISA, ENEM, etc. elevaram a qualidade dos testes a um<br />

nível de excelência dentro das possibilidades desse formato. Porém, será que não existem<br />

outros formatos de avaliação que permitam maiores inferências sobre o desenvolvimento<br />

do conhecimento, das habilidades e competências dos aprendizes? Será que não existem<br />

instrumentos mais efetivos para que os próprios alunos tenham maior consciência do que<br />

sabem e do que não sabem e que guiem melhor seus processos de aprendizagem? Será que<br />

não existem outras ferramentas que facilitem a vida do professor na avaliação de processos<br />

e não apenas de resultados? Qual a relação entre esse tipo de instrumento e aqueles usados<br />

em avaliações de larga escala?<br />

Instrumentos e métodos de avaliação condizentes com essas expectativas existem numa<br />

escala ainda muito pequena ou mesmo experimental como mostra o excelente trabalho de<br />

revisão e compilação “Knowing what students know” (PELLEGRINO et al., 2003).


Avanços promissores têm aparecido com o uso de tecnologia nos processos de avaliação<br />

(McFARLANE, 2004).<br />

<strong>Avaliação</strong> da capacidade de resolver problemas<br />

A aprendizagem baseada em problemas tem sido adotada por várias instituições (BOUD;<br />

FELLETTI, 1998). Os problemas mais ricos para esse tipo de aprendizagem, mais<br />

próximos de problemas reais, são os problemas abertos, problemas que em geral têm<br />

enunciados definidos de uma maneira bastante “frouxa”, que permitem diferentes<br />

interpretações, problemas que permitem diferentes soluções (DAVIDSON et al. 1996). Um<br />

aluno para resolver um problema desses tem que definir para si próprio o que é o problema,<br />

precisa selecionar que dados e informações foram fornecidos, deve elaborar ainda que<br />

inconscientemente um plano de resolução, implantar e monitorar esse plano de resolução,<br />

mudar de estratégia quando perceber insucesso ou possibilidades de otimização, interpretar<br />

e organizar uma apresentação da resolução adequada para o público-alvo.<br />

Uma das maneiras de se avaliar a capacidade de resolução de problemas é “quebrar” um ou<br />

mais problemas em tarefas que envolvam o conhecimento declarativo (identificação de<br />

informações e características relevantes do problema), o conhecimento procedural<br />

(operação de “ferramentas” para a resolução e seu uso passo a passo) e o conhecimento<br />

estratégico (planejamento, acesso e organização de dados e informações, representação,<br />

transformação, análise e interpretação crítica das informações e dados, argumentação,<br />

comunicação de idéias e resultados, desenho de novos produtos, divisão de trabalho na<br />

resolução de problemas complexos) (QUELLMALZ; KOZMA, 2003). Com essa quebra<br />

em tarefas menores é possível avaliar diferentes habilidades e competências, por exemplo,<br />

se os alunos aplicam procedimentos quantitativos e qualitativos na análise e interpretação<br />

dos dados, se conseguem inferir padrões e tendências, se usam ferramentas de modelagem e<br />

visualização para investigar, comparar, testar, etc. A maior ressalva que se faz a esse tipo<br />

de abordagem é a artificialidade dessa divisão em pequenas tarefas. O fato de um aluno ter<br />

grande aptidão para resolver as partes, por exemplo, fazendo buscas efetivas de<br />

informações, ou sabendo usar ferramentas de visualização, não implica necessariamente<br />

que ele seja um bom solucionador de problemas. Muitas vezes uma visão mais holística<br />

seria desejável.<br />

Ainda assim, avanços nesse tipo de abordagem têm sido obtidos através do uso da<br />

tecnologia na proposição e avaliação de tarefas ricas que envolvam ingredientes essências<br />

da resolução de problemas. Exemplo disso são pequenas simulações onde o aluno possa<br />

explorar uma região, onde possa gerar e testar hipóteses, onde possa descobrir regras,<br />

encontrar relações, generalizar regras, encontrar mais de uma solução, etc. (RIDGWAY;<br />

McCUSKER, 2003).<br />

O uso da tecnologia para a avaliação da capacidade de resolução de problemas permite o<br />

trabalho numa dimensão de problemas que tem sido chamados de “problemas dinâmicos”<br />

(WIRTH; KLIEME, 2003). São problemas que vão se abrindo, tornando-se mais<br />

complexos, ou ao contrário, convergindo e simplificando-se conforme os passos que o<br />

aluno dá. Esses são cenários mais parecidos com o mundo real onde um passo na direção<br />

errada da resolução de um problema gera uma situação mais complicada, o que


normalmente leva o aluno a retroceder e procurar outro caminho ou estratégia. Argumentase<br />

que esse tipo de problema é diferente dos problemas analíticos normalmente trabalhados<br />

na escola ou universidade por envolver habilidades de interpretação de diversos tipos de<br />

“feedback” e por exigir o uso e monitoramento concomitante de diferentes estratégias.<br />

A avaliação dos passos dos alunos na resolução de problemas com o uso da tecnologia pode<br />

ainda ser analisada sob o modelo de “desenho centrado em evidências” (BENNETT et al.<br />

2003). Nessa abordagem criam-se “modelos de alunos” e as ações realizadas pelo usuário<br />

na resolução do problema no computador são analisadas pelo programa de avaliação como<br />

evidências do usuário corresponder mais a um ou outro “modelo de aluno”. A maior<br />

contribuição dessas ferramentas para o cenário de avaliação educacional é que com elas é<br />

possível sair do binário “acertou/errou”. Com a criação e apresentação de problemas no<br />

computador e a interpretação de passos, evidências, ações frente a diferentes cenários, uso<br />

de feedbacks, etc. pode-se preencher o contínuo entre o saber e o não saber achando a<br />

“zona proximal de desenvolvimento” do aluno, ou seja, o quanto de autonomia ele tem e<br />

quanto e que tipo de ajuda ele precisa para resolver determinados tipos de problemas. São<br />

instrumentos caros e demorados para serem criados, mas que permitem avaliações em larga<br />

escala.<br />

Notamos avanços também nos programas e técnicas de análise automática de textos livres<br />

do tipo ensaios e outros textos mais longos (LANDAUER et al., 2003) baseados na análise<br />

semântica latente. Nesse caso o programa “aprende” coletando e organizando informações<br />

de textos de referência, ou seja, sendo calibrado, e depois usando esses dados para analisar<br />

grandes quantidades de textos. O nível de automatização desse processo e o grau de<br />

confiabilidade ainda são relativamente baixos. É necessário que os textos sejam<br />

razoavelmente longos. Para questionários com respostas abertas essa técnica ainda não é<br />

viável.<br />

Um exemplo bastante interessante de avaliação com tecnologia é o acoplamento de uma<br />

ferramenta de geração de mapa conceitual com páginas de uma “web restrita” (HERL et al.,<br />

1999). Nesse caso, alunos criam mapas conceituais partindo de um conjunto de conceitos e<br />

palavras de ligação disponíveis na tela do computador e depois, navegando numa “web<br />

restrita” porém um grande número de páginas, fazem ligações dos conceitos do mapa com<br />

páginas que ilustrem ou expliquem os conceitos e sua posição no mapa conceitual. Também<br />

nesse caso antes do uso do instrumento com alunos foi feita uma validação com mapas e<br />

links gerados por especialistas.<br />

<strong>Avaliação</strong> de posturas e desenvolvimento da metacognição<br />

Quando falamos de uma educação que prepare o aluno para ser cidadão no mundo atual de<br />

constantes mudanças, de buscas desesperadas por otimização de processos, com ênfase<br />

muitas vezes exacerbada na inovação, chegamos naturalmente aos clichês de que esses<br />

alunos precisam aprender a aprender, aprender a ser, ... Como fazer isso? No mundo<br />

educacional uma ênfase cada vez maior tem sido atribuída ao desenvolvimento da<br />

metacognição (DAVIS et al., 2004), ou seja, a conscientização do próprio aluno sobre o que<br />

sabe e o que não sabe, sobre como sabe, sobre como aplica o que sabe, sobre como otimiza<br />

o que sabe e sua aplicação.


Para o desenvolvimento da metacognição é conveniente durante as atividades realizar<br />

paradas estratégicas para a reflexão sobre a relação realizado/planejado, para a avaliação da<br />

qualidade de soluções e produtos gerados, para a auto-avaliação. Mais que isso, é<br />

necessário desenvolver um vocabulário (NUNES; DAVIS, 2001) para falar sobre<br />

estratégias de pensamento generalizáveis para diferentes situações, os heurísticos.<br />

Usualmente professores não têm preparo para, juntamente com o desenvolvimento de sua<br />

disciplina, trabalhar estratégias de pensamento, transferência, generalização, etc. Portanto,<br />

introduzir esse novo ingrediente, por mais importante que seja, é mais uma sobrecarga.<br />

Novamente aqui a tecnologia pode ser um instrumento valioso. É possível preparar via<br />

software situações-problema de tal maneira que o aluno tome consciência de seus processos<br />

de pensamento e avalie seu progresso se, conforme os passos que seguir na resolução do<br />

problema, receber “feedbacks” metacognitivos e puder comparar os caminhos seguidos e as<br />

estratégias utilizadas com aquelas de outros colegas e especialistas. Num estudo recente<br />

com alunos de oitava série e problemas de matemática Nunes et al. (NUNES et al., 2003)<br />

desenvolveram uma série de problemas e feedbacks com essas características.<br />

O uso de situações-problema permite ainda avaliar posturas de alunos e professores. É<br />

comum esperar que cursos de formação “transformem” as pessoas. As transformações<br />

possíveis, por melhor que seja o curso, dependem da experiência prévia do aluno, de sua<br />

abertura para as transformações, do seu empenho, etc. Mesmo assim, por mais favoráveis<br />

que sejam as condições, existem transformações que acontecem em prazos curtos e outras<br />

que necessitam tempo, que não acontecerão durante o período de um curso. Para<br />

exemplificar tomemos o caso do curso de formação de professores oferecido pela Secretaria<br />

da Educação do Estado de São Paulo em conjunto com as Universidades <strong>USP</strong>, PUC e<br />

UNESP, o Programa de Educação Continuada. Esse programa, com uma carga de<br />

aproximadamente três mil horas buscava levar aos professores de ensino fundamental uma<br />

visão moderna da educação, condizente com as Diretrizes e Parâmetros Curriculares. A<br />

análise da postura dos professores frente a situações-problema que exploravam os erros dos<br />

alunos, o uso da tecnologia, as diferentes situações de sala de aula, o planejamento, etc.<br />

permitiu inferir que os professores, muitos deles em serviço há vários anos, se distribuíam<br />

num contínuo. Numa ponta estavam os poucos que mantinham uma visão bastante<br />

tradicional da educação. Na outra, aqueles com uma visão moderna, construtivista. Entre os<br />

dois extremos distribuíam-se professores que em diferentes níveis tinham adotado parte ou<br />

todo o discurso apresentado no curso, mas que diante de situações inesperadas<br />

demonstravam ainda não estar totalmente convictos ou não saber como colocar em prática<br />

as idéias discutidas. Para a obtenção desses resultados foram usadas diversas situaçõesproblema<br />

versando sobre o mesmo assunto onde diferentes caminhos abriam-se conforme<br />

as respostas dos professores e situações inesperadas “checavam” a consistência de suas<br />

escolhas. O método foi utilizado num universo de cinco mil professores (NUNES et al.,<br />

2003).<br />

Instrumentos de avaliação para a sala de aula


Os métodos de avaliação que usamos em nossas disciplinas passam o recado aos alunos da<br />

importância que damos às diferentes nuances da aprendizagem. Se falarmos que capacidade<br />

de colaboração, desenvolvimento de pensamento crítico, formação de uma visão pouco<br />

fragmentada do conhecimento, etc são importantes na sua formação, mas no momento das<br />

avaliações fizermos apenas provas cobrando memorização de conteúdo, fica evidente para<br />

o aluno que esses pontos estão em segundo plano. No entanto, para muitos de nós esses<br />

pontos não estão em segundo plano e sim temos dificuldades de avaliá-los usando critérios<br />

justos, objetivos, dentro do tempo que dispomos.<br />

Uma maneira de superar essas dificuldades é primeiramente ter clareza dos objetivos de<br />

aprendizagem que temos em nossas disciplinas. Vamos tomar um exemplo: um grupo da<br />

Faculdade de Educação de Harvard acredita que o objetivo maior do ensino oferecido por<br />

eles deve ser o “Ensino para a Compreensão” (WISKE, 1998). A compreensão para eles é<br />

entendida como a capacidade de uso flexível do conhecimento em novas situações<br />

(PERKINS, 1998). Para passar do nível do discurso à prática é necessário<br />

pensar/vislumbrar como se comporta um aluno que compreende totalmente, parcialmente,<br />

ou que não compreende o que está sendo trabalhado. Portanto, o passo seguinte para pensar<br />

numa avaliação condizente com os objetivos de aprendizagem que colocamos é definir<br />

quais são as qualidades que demonstram que esses objetivos foram atingidos total ou<br />

parcialmente.<br />

Ainda usando o exemplo do “Ensino para a Compreensão”, as qualidades que demonstram<br />

a capacidade de uso flexível do conhecimento podem ser organizadas em quatro dimensões<br />

(MANSILLA; GARDNER, 1998):<br />

- a dimensão do conhecimento que permite verificar até que ponto o conhecimento de<br />

teorias e conceitos permite leva os alunos a superar suas concepções espontâneas e<br />

até que ponto formam uma rede rica e coerente de conceitos movendo-se<br />

flexivelmente de detalhes a generalizações, de exemplos a aplicações;<br />

- a dimensão dos métodos que permite checar até que ponto os alunos desenvolvem<br />

um espírito crítico sabendo avaliar e checar a qualidade do material e da informação<br />

que recebem, sabendo como são os métodos de construção do conhecimento numa<br />

determinada área (as técnicas, os procedimentos) usados por profissionais, sabendo<br />

como se constroem explicações coerentes e argumentações nessa área;<br />

- a dimensão dos propósitos onde se percebe se os alunos conhecem as questões<br />

fundamentais numa determinada área, se reconhecem os limites de aplicação do<br />

conhecimento nessa área, se têm autonomia para o uso desse conhecimento, se<br />

desenvolvem uma visão positiva sobre o que aprendem;<br />

- a dimensão das formas que permite checar se os alunos dominam o assunto o<br />

suficiente para conseguir apresentá-lo usando diferentes mídias e meios, adequando<br />

sua apresentação aos diferentes públicos e contextos, usando efetivamente o sistema<br />

de símbolos da área em questão (analogias, metáforas, cores, formas, movimentos,<br />

gráficos, fórmulas).<br />

Como vemos, quando começamos a abrir objetivos de aprendizagem gerais em termos de<br />

qualidades que demonstrem se os estudantes estão atingindo esses objetivos, percebemos<br />

que não é só uma atividade, ou um só tipo de atividade, que permitirão desenvolver e


avaliar esses objetivos. Cada atividade desenvolverá um conjunto dessas qualidades e mais,<br />

cada aluno atingirá um nível diferente quanto a essas qualidades.<br />

Instrumentos que têm sido cada vez mais utilizados no meio educacional são as rubricas<br />

instrucionais com quatro níveis (ANDRADE, 2003). Essas rubricas são atreladas a uma<br />

atividade em particular, são criadas pelo professor, e contém os critérios ou qualidades que<br />

a serem avaliados (normalmente não mais do que cinco ou seis para não diluir a ênfase no<br />

que é mais importante). Juntamente com os critérios são descritos os níveis de um aluno<br />

que não domina nada, daquele que não domina mas sabe alguma coisa, daquele que domina<br />

mas não sabe algumas coisas, e daquele que domina. A descrição desses níveis é feita de tal<br />

maneira que o aluno quando lê essas descrições reconhece em que nível está e em que nível<br />

seria esperado que ele estivesse. Por isso são chamadas rubricas instrucionais, elas<br />

demarcam um caminho para o aluno seguir. A criação das primeiras rubricas é trabalhosa,<br />

mas depois que se pega o jeito e vendo o impacto do seu uso com os alunos, torna-se um<br />

instrumento poderoso, transformador e orientador dos processos de aprendizagem. Existem<br />

ferramentas como a Rubric Machine (THINKINGGEAR, 2004) que facilitam a criação<br />

dessas rubricas.<br />

Muitas vezes as atividades que propomos para que os alunos atinjam certos objetivos e<br />

desenvolvam suas qualidades estão diretamente relacionadas à criação de algum produto<br />

(um ensaio, uma peça de teatro, um objeto físico, um software, uma apresentação, etc). As<br />

rubricas funcionam como um instrumento de avaliação também dos processos, não somente<br />

dos produtos. A maneira mais efetiva de usá-las é deixar que os alunos façam autoavaliações<br />

e avaliações de colegas ao longo do processo e no final o professor use a mesma<br />

rubrica para as avaliações finais.<br />

A capacidade de trabalhar colaborativamente é outra qualidade muito falada mas pouco<br />

avaliada. Novamente aqui o uso de um instrumento de acompanhamento e avaliação pode<br />

transformar e orientar o processo. Uma das possibilidades é definir papéis sempre que um<br />

grupo for se reunir para desenvolver os trabalhos. Dependendo do tamanho dos grupos<br />

pode-se definir mais ou menos papéis, por exemplo, um moderador que fique encarregado<br />

de que todos tenham igual chance de participação no grupo, um controlador do tempo, um<br />

responsável por elaborar uma síntese no final dos trabalhos, um responsável por levantar as<br />

dúvidas e as fontes de informação que serão consultadas para respondê-las, um anotador<br />

para fazer um registro das discussões, etc. Quando se faz um rodízio entre esses papéis os<br />

alunos passam a perceber se têm aptidão para aquele papel e o quanto dependem um do<br />

outro. O registro que o anotador faz pode ser um instrumento valioso de avaliação do<br />

processo. Se esse registro contiver o nome e as participações de cada aluno, ao final da<br />

sessão em grupo, é possível em pouco tempo, tanto para alunos como para o professor,<br />

fazer uma análise de quão colaborativo foi o trabalho, se apenas uma pessoa dominou e deu<br />

idéias, se houve “disputas” internas no grupo, se alguém não se manifestou, etc. Apesar de<br />

algum trabalho extra para os alunos e professor, o uso desse tipo de instrumento demonstra<br />

a preocupação e valorização da colaboração.<br />

Citamos aqui o projeto LabVirt (NUNES, 2002) onde alunos de escolas públicas criam<br />

situações-problema condizentes com os assuntos curriculares que estão trabalhando,<br />

escrevem roteiros para a criação de simulações para a Internet representando essas


situações-problema, e aluno universitários dos cursos de educação, arquitetura e engenharia<br />

da computação produzem as simulações. Nas escolas os trabalhos são guiados e avaliados<br />

por rubricas instrucionais e registros dos trabalhos em grupo (CURCIO, NUNES, 2005).<br />

Exemplos de critérios colocados nas rubricas envolvem: domínio do conteúdo, criatividade,<br />

pontualidade, e capacidade de expressão. No âmbito desse projeto desenhou-se uma<br />

ferramenta para acompanhamento e avaliação de trabalhos em grupo que faz uso de PDAs<br />

(Personal Digital Assistents) ligados a um computador central via wireless que permite uma<br />

consolidação e visualização das participações já ao final das aulas. O desenvolvimento<br />

dessa ferramenta está sendo feito e os testes de uso serão realizados no ano de 2005.<br />

Quando se pensa em ambientes colaborativos suportados pela tecnologia uma imensa gama<br />

de registros e métodos de avaliação é aberta. Para encerrar esta contribuição citamos os<br />

ambientes de colaboração que naturalmente oferecem feedback aos usuários e permitem a<br />

construção coletiva do conhecimento como o CSILE e o Knowledge Forum (BEREITER,<br />

SCARDAMALIA, 2003). Esses ambientes fazem “aflorar” e explicitam o processo de<br />

sugestão de idéias, coleta de dados, elaboração de hipóteses e construção de teorias,<br />

servindo quase que naturalmente como ferramenta tanto de construção do conhecimento<br />

quanto de avaliação.<br />

Referências<br />

ANDRADE, H. G. Using Rubrics to Promote Thinking and Learning. Educational<br />

Leadership, vol 57, n. 5, p. 13-18, 2000.<br />

BENETT, R.E.; JENKINS, F.; PERSKy, H.; WEISS, A. Assessing Complex Problem<br />

Solving Performances, Assessment in Education, special issue Assessment for the Digital<br />

Age, v. 10, p 347-359, 2003.<br />

BEREITER, C.; SCARDAMALIA, M. Learning to work creatively with knowledge. In E.<br />

De Corte, L. Verschaffel, N. Entwistle, & J. van Merriënboer (Eds.), Powerful learning<br />

environments: Unravelling basic components and dimensions. (Advances in Learning and<br />

Instruction Series). Oxford, UK: Elsevier Science, 2003. Disponível em<br />

http://ikit.org/fulltext/inresslearning.pdf . Acessado em 09 de dez. 2004.<br />

BOUD, D; FELLETI, G. The Challenge of Problem Based Learning. London: Kogan Page,<br />

1998.<br />

BRANSFORD, J.D.; BROWN, A.L.; Cocking, R.R. How People Learn: Brain, Mind,<br />

Experience, and School. Expanded edition. Washington: National Academy Press, 2000,<br />

374 p.<br />

BRUER, J.T. Schools for Thought: A Science of Learning in the Classroom. Cambridge:<br />

MIT Press, 1999. 324 p.


CURCIO, C.F.; NUNES, C.A.A. <strong>Avaliação</strong> como facilitadora da aprendizagem. Trabalho<br />

aceito no XVI Simpósio Nacional de Ensino de Física, a ser publicado nos anais do<br />

congresso. Rio de Janeiro, janeiro de 2005.<br />

DAVIDSON, J. E.; DEUSER, R.; STERNBERG, R. J. The role of metacognition in<br />

problem solving. In: METALCAFE, J.; SHIMAMURA, A P. Knowing about Knowing.<br />

Cambridge, Massachusetts: MIT, 1996<br />

DAVIS, C.; NUNES, M.R.; NUNES, C.A.A. Metacognição e sucesso escolar: ligando a<br />

teoria à prática. Aceito para publicação na Revista Brasileira de Educação. Trabalho<br />

convidado na XXVII Reunião Anual da ANPED, Caxambu, MG, 2004.<br />

HERL, H.E.; O’NEIL JR., H.F.; CHUNG, G.K.W.K.; SCHACTER, J. Reliability and<br />

Validity of a Computer-Based Knowledge Mapping System to Measure Content<br />

Understanding. Computers in Human Behavior, v. 15, p 315-333, 1999.<br />

LANDAUER, T.K.; LAHAM, D.; FOLTZ, P. Automatic Essay Assessment. Assessment in<br />

Education, special issue Assessment for the Digital Age, v. 10, p 295-308, 2003.<br />

MANSILLA, V.B.; GARDER, H. What are the qualities of understanding? In: ________<br />

Teaching for Understanding, San Francisco: Jossey-Bass, 1998, p 161-196.<br />

McFARLANE, A. Editorial. Assessment for the Digital Age. Assessment in Education,<br />

special issue Assessment for the Digital Age, v. 10, p 261-266, 2003.<br />

NUNES, C. A. A. (2002). Collaborative Content Creation by Cross-Level Students.<br />

Apresentado no 2 nd International Conference on Open Collaborative Design for Sustainable<br />

Innovation: creativity, control and culture for sustainable change. Bangalore, India, 1-2<br />

December 2002. Disponível: http://www.thinkcycle.org/tcpapers/?paper_id=37447&show_full=1<br />

Acesso em 09 dez. 2004<br />

NUNES, C.A.A.; NUNES, M.R.; DAVIS, C. Assessing the Inaccesible: metacognition and<br />

attitudes, Assessment in Education, special issue Assessment for the Digital Age, v. 10, p<br />

376-388, 2003.<br />

NUNES, M.R.; DAVIS, C. New Technologies, New Ways of Learning? Presented at The<br />

Future and Challenges of Educational Assessment in the 21st Century, 27th Annual IEAE<br />

Conference. Rio de<br />

Janeiro, Brazil, 2001.<br />

PELLEGRINO, J.W.; CHUDOWSKI, N.; GLASER, R. Knowing What Students Know:<br />

The Science and Design of Educational Assessment. Washington: National Academy Press,<br />

2003, 382 p.<br />

PERKINS, D.N. What is Understanding? In: ________ Teaching for Understanding, San<br />

Francisco: Jossey-Bass, 1998, p 39-58.


QUELLMALZ, E.S.; KOZMA, R. Designing Assessments of Learning with Technology,<br />

Assessment in Education, special issue Assessment for the Digital Age, v. 10, p 389-407,<br />

2003.<br />

RIDGWAY, J.; McCUSKER, S. Using Computers to Asses New Educational Goals,<br />

Assessment in Education, special issue Assessment for the Digital Age, v. 10, p 309-328,<br />

2003.<br />

THINKINGGEAR – http://www.thinkinggear.com/tools , acesso em 09 dez. 2004.<br />

TISHMAN, S.; PERKINS, D.N., JAY, E. A Cultura do Pensamento na Sala de Aula. Porto<br />

Alegre: Artmed, 1999, 243 p.<br />

WIRTH, J.; KLIEME, E. Computer-based Assessment of Problem Solving Competence,<br />

Assessment in Education, special issue Assessment for the Digital Age, v. 10, p 328-345,<br />

2003.<br />

WISKE, M.S. Teaching for Understanding: linking research with practice. San Francisco:<br />

Jossey-Bass, 1998, 378 p.<br />

WISKE, M.S. What is Teaching for Understanding? In: ________ Teaching for<br />

Understanding, San Francisco: Jossey-Bass, 1998, p 61-86.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!