Repensando a Avaliação - LaPEF - USP
Repensando a Avaliação - LaPEF - USP Repensando a Avaliação - LaPEF - USP
Repensando a Avaliação Cesar Nunes Introdução Na década passada presenciamos um fenômeno em escala mundial: a criação de novos parâmetros e diretrizes curriculares em muitos países e estados. Esse fenômeno refletia a necessidade de repensar a educação e adequá-la a uma realidade, num jargão já batido, chamada de era do conhecimento. Vários livros compilaram, sob a ótica dessa época, os pontos mais importantes de teorias e práticas educacionais conhecidas até então. Entre eles ressaltamos “Schools for Thought” (BRUER, 1993), “A Cultura do Pensamento na Sala de Aula” (TISHMAN et al., 1999) e “Teaching for Undertanding” (WISKE, 1998). As ciências cognitivas trouxeram avanços notáveis no entendimento de como as pessoas pensam e aprendem. O já célebre “How People Learn” (BRANSFORD et al., 2000) sintetiza as maiores mudanças sobre as concepções de aprendizagem e examina as implicações para novos ambientes de ensino e aprendizagem. O processo de repensar a avaliação deveria ser indissociável do processo de repensar a educação. Embora possa parecer óbvio, não foi o que aconteceu num primeiro momento. A sobrevalorização de testes e exames de larga escala com seus objetivos testes de conteúdo tem impedido uma maior disseminação de práticas educacionais que trabalhem valores, competências e habilidades. A maioria dos documentos de diretrizes educacionais dos vários países contém a expectativa do desenvolvimento de habilidades de ordem mais alta como: capacidade de resolver problemas, autonomia, pensamento crítico, capacidade de trabalhar em grupo, etc. Por outro lado temos já há bastante tempo exames extremamente objetivos e dados quantitativos como: número de questões corretas em testes de múltiplas escolha, índices de repetência e evasão, etc. O problema não está na existência ou uso dos exames objetivos e dos dados quantitativos e sim na falta de instrumentos que permitam interpretar e avaliar dados mais qualitativos dando indicações sobre o desenvolvimento das habilidades de ordem mais alta. Exames de larga escala, inteligentes, como PISA, ENEM, etc. elevaram a qualidade dos testes a um nível de excelência dentro das possibilidades desse formato. Porém, será que não existem outros formatos de avaliação que permitam maiores inferências sobre o desenvolvimento do conhecimento, das habilidades e competências dos aprendizes? Será que não existem instrumentos mais efetivos para que os próprios alunos tenham maior consciência do que sabem e do que não sabem e que guiem melhor seus processos de aprendizagem? Será que não existem outras ferramentas que facilitem a vida do professor na avaliação de processos e não apenas de resultados? Qual a relação entre esse tipo de instrumento e aqueles usados em avaliações de larga escala? Instrumentos e métodos de avaliação condizentes com essas expectativas existem numa escala ainda muito pequena ou mesmo experimental como mostra o excelente trabalho de revisão e compilação “Knowing what students know” (PELLEGRINO et al., 2003).
- Page 2 and 3: Avanços promissores têm aparecido
- Page 4 and 5: Para o desenvolvimento da metacogni
- Page 6 and 7: avaliar esses objetivos. Cada ativi
- Page 8 and 9: CURCIO, C.F.; NUNES, C.A.A. Avalia
<strong>Repensando</strong> a <strong>Avaliação</strong><br />
Cesar Nunes<br />
Introdução<br />
Na década passada presenciamos um fenômeno em escala mundial: a criação de novos<br />
parâmetros e diretrizes curriculares em muitos países e estados. Esse fenômeno refletia a<br />
necessidade de repensar a educação e adequá-la a uma realidade, num jargão já batido,<br />
chamada de era do conhecimento.<br />
Vários livros compilaram, sob a ótica dessa época, os pontos mais importantes de teorias e<br />
práticas educacionais conhecidas até então. Entre eles ressaltamos “Schools for Thought”<br />
(BRUER, 1993), “A Cultura do Pensamento na Sala de Aula” (TISHMAN et al., 1999) e<br />
“Teaching for Undertanding” (WISKE, 1998). As ciências cognitivas trouxeram avanços<br />
notáveis no entendimento de como as pessoas pensam e aprendem. O já célebre “How<br />
People Learn” (BRANSFORD et al., 2000) sintetiza as maiores mudanças sobre as<br />
concepções de aprendizagem e examina as implicações para novos ambientes de ensino e<br />
aprendizagem.<br />
O processo de repensar a avaliação deveria ser indissociável do processo de repensar a<br />
educação. Embora possa parecer óbvio, não foi o que aconteceu num primeiro momento. A<br />
sobrevalorização de testes e exames de larga escala com seus objetivos testes de conteúdo<br />
tem impedido uma maior disseminação de práticas educacionais que trabalhem valores,<br />
competências e habilidades. A maioria dos documentos de diretrizes educacionais dos<br />
vários países contém a expectativa do desenvolvimento de habilidades de ordem mais alta<br />
como: capacidade de resolver problemas, autonomia, pensamento crítico, capacidade de<br />
trabalhar em grupo, etc. Por outro lado temos já há bastante tempo exames extremamente<br />
objetivos e dados quantitativos como: número de questões corretas em testes de múltiplas<br />
escolha, índices de repetência e evasão, etc.<br />
O problema não está na existência ou uso dos exames objetivos e dos dados quantitativos e<br />
sim na falta de instrumentos que permitam interpretar e avaliar dados mais qualitativos<br />
dando indicações sobre o desenvolvimento das habilidades de ordem mais alta. Exames de<br />
larga escala, inteligentes, como PISA, ENEM, etc. elevaram a qualidade dos testes a um<br />
nível de excelência dentro das possibilidades desse formato. Porém, será que não existem<br />
outros formatos de avaliação que permitam maiores inferências sobre o desenvolvimento<br />
do conhecimento, das habilidades e competências dos aprendizes? Será que não existem<br />
instrumentos mais efetivos para que os próprios alunos tenham maior consciência do que<br />
sabem e do que não sabem e que guiem melhor seus processos de aprendizagem? Será que<br />
não existem outras ferramentas que facilitem a vida do professor na avaliação de processos<br />
e não apenas de resultados? Qual a relação entre esse tipo de instrumento e aqueles usados<br />
em avaliações de larga escala?<br />
Instrumentos e métodos de avaliação condizentes com essas expectativas existem numa<br />
escala ainda muito pequena ou mesmo experimental como mostra o excelente trabalho de<br />
revisão e compilação “Knowing what students know” (PELLEGRINO et al., 2003).
Avanços promissores têm aparecido com o uso de tecnologia nos processos de avaliação<br />
(McFARLANE, 2004).<br />
<strong>Avaliação</strong> da capacidade de resolver problemas<br />
A aprendizagem baseada em problemas tem sido adotada por várias instituições (BOUD;<br />
FELLETTI, 1998). Os problemas mais ricos para esse tipo de aprendizagem, mais<br />
próximos de problemas reais, são os problemas abertos, problemas que em geral têm<br />
enunciados definidos de uma maneira bastante “frouxa”, que permitem diferentes<br />
interpretações, problemas que permitem diferentes soluções (DAVIDSON et al. 1996). Um<br />
aluno para resolver um problema desses tem que definir para si próprio o que é o problema,<br />
precisa selecionar que dados e informações foram fornecidos, deve elaborar ainda que<br />
inconscientemente um plano de resolução, implantar e monitorar esse plano de resolução,<br />
mudar de estratégia quando perceber insucesso ou possibilidades de otimização, interpretar<br />
e organizar uma apresentação da resolução adequada para o público-alvo.<br />
Uma das maneiras de se avaliar a capacidade de resolução de problemas é “quebrar” um ou<br />
mais problemas em tarefas que envolvam o conhecimento declarativo (identificação de<br />
informações e características relevantes do problema), o conhecimento procedural<br />
(operação de “ferramentas” para a resolução e seu uso passo a passo) e o conhecimento<br />
estratégico (planejamento, acesso e organização de dados e informações, representação,<br />
transformação, análise e interpretação crítica das informações e dados, argumentação,<br />
comunicação de idéias e resultados, desenho de novos produtos, divisão de trabalho na<br />
resolução de problemas complexos) (QUELLMALZ; KOZMA, 2003). Com essa quebra<br />
em tarefas menores é possível avaliar diferentes habilidades e competências, por exemplo,<br />
se os alunos aplicam procedimentos quantitativos e qualitativos na análise e interpretação<br />
dos dados, se conseguem inferir padrões e tendências, se usam ferramentas de modelagem e<br />
visualização para investigar, comparar, testar, etc. A maior ressalva que se faz a esse tipo<br />
de abordagem é a artificialidade dessa divisão em pequenas tarefas. O fato de um aluno ter<br />
grande aptidão para resolver as partes, por exemplo, fazendo buscas efetivas de<br />
informações, ou sabendo usar ferramentas de visualização, não implica necessariamente<br />
que ele seja um bom solucionador de problemas. Muitas vezes uma visão mais holística<br />
seria desejável.<br />
Ainda assim, avanços nesse tipo de abordagem têm sido obtidos através do uso da<br />
tecnologia na proposição e avaliação de tarefas ricas que envolvam ingredientes essências<br />
da resolução de problemas. Exemplo disso são pequenas simulações onde o aluno possa<br />
explorar uma região, onde possa gerar e testar hipóteses, onde possa descobrir regras,<br />
encontrar relações, generalizar regras, encontrar mais de uma solução, etc. (RIDGWAY;<br />
McCUSKER, 2003).<br />
O uso da tecnologia para a avaliação da capacidade de resolução de problemas permite o<br />
trabalho numa dimensão de problemas que tem sido chamados de “problemas dinâmicos”<br />
(WIRTH; KLIEME, 2003). São problemas que vão se abrindo, tornando-se mais<br />
complexos, ou ao contrário, convergindo e simplificando-se conforme os passos que o<br />
aluno dá. Esses são cenários mais parecidos com o mundo real onde um passo na direção<br />
errada da resolução de um problema gera uma situação mais complicada, o que
normalmente leva o aluno a retroceder e procurar outro caminho ou estratégia. Argumentase<br />
que esse tipo de problema é diferente dos problemas analíticos normalmente trabalhados<br />
na escola ou universidade por envolver habilidades de interpretação de diversos tipos de<br />
“feedback” e por exigir o uso e monitoramento concomitante de diferentes estratégias.<br />
A avaliação dos passos dos alunos na resolução de problemas com o uso da tecnologia pode<br />
ainda ser analisada sob o modelo de “desenho centrado em evidências” (BENNETT et al.<br />
2003). Nessa abordagem criam-se “modelos de alunos” e as ações realizadas pelo usuário<br />
na resolução do problema no computador são analisadas pelo programa de avaliação como<br />
evidências do usuário corresponder mais a um ou outro “modelo de aluno”. A maior<br />
contribuição dessas ferramentas para o cenário de avaliação educacional é que com elas é<br />
possível sair do binário “acertou/errou”. Com a criação e apresentação de problemas no<br />
computador e a interpretação de passos, evidências, ações frente a diferentes cenários, uso<br />
de feedbacks, etc. pode-se preencher o contínuo entre o saber e o não saber achando a<br />
“zona proximal de desenvolvimento” do aluno, ou seja, o quanto de autonomia ele tem e<br />
quanto e que tipo de ajuda ele precisa para resolver determinados tipos de problemas. São<br />
instrumentos caros e demorados para serem criados, mas que permitem avaliações em larga<br />
escala.<br />
Notamos avanços também nos programas e técnicas de análise automática de textos livres<br />
do tipo ensaios e outros textos mais longos (LANDAUER et al., 2003) baseados na análise<br />
semântica latente. Nesse caso o programa “aprende” coletando e organizando informações<br />
de textos de referência, ou seja, sendo calibrado, e depois usando esses dados para analisar<br />
grandes quantidades de textos. O nível de automatização desse processo e o grau de<br />
confiabilidade ainda são relativamente baixos. É necessário que os textos sejam<br />
razoavelmente longos. Para questionários com respostas abertas essa técnica ainda não é<br />
viável.<br />
Um exemplo bastante interessante de avaliação com tecnologia é o acoplamento de uma<br />
ferramenta de geração de mapa conceitual com páginas de uma “web restrita” (HERL et al.,<br />
1999). Nesse caso, alunos criam mapas conceituais partindo de um conjunto de conceitos e<br />
palavras de ligação disponíveis na tela do computador e depois, navegando numa “web<br />
restrita” porém um grande número de páginas, fazem ligações dos conceitos do mapa com<br />
páginas que ilustrem ou expliquem os conceitos e sua posição no mapa conceitual. Também<br />
nesse caso antes do uso do instrumento com alunos foi feita uma validação com mapas e<br />
links gerados por especialistas.<br />
<strong>Avaliação</strong> de posturas e desenvolvimento da metacognição<br />
Quando falamos de uma educação que prepare o aluno para ser cidadão no mundo atual de<br />
constantes mudanças, de buscas desesperadas por otimização de processos, com ênfase<br />
muitas vezes exacerbada na inovação, chegamos naturalmente aos clichês de que esses<br />
alunos precisam aprender a aprender, aprender a ser, ... Como fazer isso? No mundo<br />
educacional uma ênfase cada vez maior tem sido atribuída ao desenvolvimento da<br />
metacognição (DAVIS et al., 2004), ou seja, a conscientização do próprio aluno sobre o que<br />
sabe e o que não sabe, sobre como sabe, sobre como aplica o que sabe, sobre como otimiza<br />
o que sabe e sua aplicação.
Para o desenvolvimento da metacognição é conveniente durante as atividades realizar<br />
paradas estratégicas para a reflexão sobre a relação realizado/planejado, para a avaliação da<br />
qualidade de soluções e produtos gerados, para a auto-avaliação. Mais que isso, é<br />
necessário desenvolver um vocabulário (NUNES; DAVIS, 2001) para falar sobre<br />
estratégias de pensamento generalizáveis para diferentes situações, os heurísticos.<br />
Usualmente professores não têm preparo para, juntamente com o desenvolvimento de sua<br />
disciplina, trabalhar estratégias de pensamento, transferência, generalização, etc. Portanto,<br />
introduzir esse novo ingrediente, por mais importante que seja, é mais uma sobrecarga.<br />
Novamente aqui a tecnologia pode ser um instrumento valioso. É possível preparar via<br />
software situações-problema de tal maneira que o aluno tome consciência de seus processos<br />
de pensamento e avalie seu progresso se, conforme os passos que seguir na resolução do<br />
problema, receber “feedbacks” metacognitivos e puder comparar os caminhos seguidos e as<br />
estratégias utilizadas com aquelas de outros colegas e especialistas. Num estudo recente<br />
com alunos de oitava série e problemas de matemática Nunes et al. (NUNES et al., 2003)<br />
desenvolveram uma série de problemas e feedbacks com essas características.<br />
O uso de situações-problema permite ainda avaliar posturas de alunos e professores. É<br />
comum esperar que cursos de formação “transformem” as pessoas. As transformações<br />
possíveis, por melhor que seja o curso, dependem da experiência prévia do aluno, de sua<br />
abertura para as transformações, do seu empenho, etc. Mesmo assim, por mais favoráveis<br />
que sejam as condições, existem transformações que acontecem em prazos curtos e outras<br />
que necessitam tempo, que não acontecerão durante o período de um curso. Para<br />
exemplificar tomemos o caso do curso de formação de professores oferecido pela Secretaria<br />
da Educação do Estado de São Paulo em conjunto com as Universidades <strong>USP</strong>, PUC e<br />
UNESP, o Programa de Educação Continuada. Esse programa, com uma carga de<br />
aproximadamente três mil horas buscava levar aos professores de ensino fundamental uma<br />
visão moderna da educação, condizente com as Diretrizes e Parâmetros Curriculares. A<br />
análise da postura dos professores frente a situações-problema que exploravam os erros dos<br />
alunos, o uso da tecnologia, as diferentes situações de sala de aula, o planejamento, etc.<br />
permitiu inferir que os professores, muitos deles em serviço há vários anos, se distribuíam<br />
num contínuo. Numa ponta estavam os poucos que mantinham uma visão bastante<br />
tradicional da educação. Na outra, aqueles com uma visão moderna, construtivista. Entre os<br />
dois extremos distribuíam-se professores que em diferentes níveis tinham adotado parte ou<br />
todo o discurso apresentado no curso, mas que diante de situações inesperadas<br />
demonstravam ainda não estar totalmente convictos ou não saber como colocar em prática<br />
as idéias discutidas. Para a obtenção desses resultados foram usadas diversas situaçõesproblema<br />
versando sobre o mesmo assunto onde diferentes caminhos abriam-se conforme<br />
as respostas dos professores e situações inesperadas “checavam” a consistência de suas<br />
escolhas. O método foi utilizado num universo de cinco mil professores (NUNES et al.,<br />
2003).<br />
Instrumentos de avaliação para a sala de aula
Os métodos de avaliação que usamos em nossas disciplinas passam o recado aos alunos da<br />
importância que damos às diferentes nuances da aprendizagem. Se falarmos que capacidade<br />
de colaboração, desenvolvimento de pensamento crítico, formação de uma visão pouco<br />
fragmentada do conhecimento, etc são importantes na sua formação, mas no momento das<br />
avaliações fizermos apenas provas cobrando memorização de conteúdo, fica evidente para<br />
o aluno que esses pontos estão em segundo plano. No entanto, para muitos de nós esses<br />
pontos não estão em segundo plano e sim temos dificuldades de avaliá-los usando critérios<br />
justos, objetivos, dentro do tempo que dispomos.<br />
Uma maneira de superar essas dificuldades é primeiramente ter clareza dos objetivos de<br />
aprendizagem que temos em nossas disciplinas. Vamos tomar um exemplo: um grupo da<br />
Faculdade de Educação de Harvard acredita que o objetivo maior do ensino oferecido por<br />
eles deve ser o “Ensino para a Compreensão” (WISKE, 1998). A compreensão para eles é<br />
entendida como a capacidade de uso flexível do conhecimento em novas situações<br />
(PERKINS, 1998). Para passar do nível do discurso à prática é necessário<br />
pensar/vislumbrar como se comporta um aluno que compreende totalmente, parcialmente,<br />
ou que não compreende o que está sendo trabalhado. Portanto, o passo seguinte para pensar<br />
numa avaliação condizente com os objetivos de aprendizagem que colocamos é definir<br />
quais são as qualidades que demonstram que esses objetivos foram atingidos total ou<br />
parcialmente.<br />
Ainda usando o exemplo do “Ensino para a Compreensão”, as qualidades que demonstram<br />
a capacidade de uso flexível do conhecimento podem ser organizadas em quatro dimensões<br />
(MANSILLA; GARDNER, 1998):<br />
- a dimensão do conhecimento que permite verificar até que ponto o conhecimento de<br />
teorias e conceitos permite leva os alunos a superar suas concepções espontâneas e<br />
até que ponto formam uma rede rica e coerente de conceitos movendo-se<br />
flexivelmente de detalhes a generalizações, de exemplos a aplicações;<br />
- a dimensão dos métodos que permite checar até que ponto os alunos desenvolvem<br />
um espírito crítico sabendo avaliar e checar a qualidade do material e da informação<br />
que recebem, sabendo como são os métodos de construção do conhecimento numa<br />
determinada área (as técnicas, os procedimentos) usados por profissionais, sabendo<br />
como se constroem explicações coerentes e argumentações nessa área;<br />
- a dimensão dos propósitos onde se percebe se os alunos conhecem as questões<br />
fundamentais numa determinada área, se reconhecem os limites de aplicação do<br />
conhecimento nessa área, se têm autonomia para o uso desse conhecimento, se<br />
desenvolvem uma visão positiva sobre o que aprendem;<br />
- a dimensão das formas que permite checar se os alunos dominam o assunto o<br />
suficiente para conseguir apresentá-lo usando diferentes mídias e meios, adequando<br />
sua apresentação aos diferentes públicos e contextos, usando efetivamente o sistema<br />
de símbolos da área em questão (analogias, metáforas, cores, formas, movimentos,<br />
gráficos, fórmulas).<br />
Como vemos, quando começamos a abrir objetivos de aprendizagem gerais em termos de<br />
qualidades que demonstrem se os estudantes estão atingindo esses objetivos, percebemos<br />
que não é só uma atividade, ou um só tipo de atividade, que permitirão desenvolver e
avaliar esses objetivos. Cada atividade desenvolverá um conjunto dessas qualidades e mais,<br />
cada aluno atingirá um nível diferente quanto a essas qualidades.<br />
Instrumentos que têm sido cada vez mais utilizados no meio educacional são as rubricas<br />
instrucionais com quatro níveis (ANDRADE, 2003). Essas rubricas são atreladas a uma<br />
atividade em particular, são criadas pelo professor, e contém os critérios ou qualidades que<br />
a serem avaliados (normalmente não mais do que cinco ou seis para não diluir a ênfase no<br />
que é mais importante). Juntamente com os critérios são descritos os níveis de um aluno<br />
que não domina nada, daquele que não domina mas sabe alguma coisa, daquele que domina<br />
mas não sabe algumas coisas, e daquele que domina. A descrição desses níveis é feita de tal<br />
maneira que o aluno quando lê essas descrições reconhece em que nível está e em que nível<br />
seria esperado que ele estivesse. Por isso são chamadas rubricas instrucionais, elas<br />
demarcam um caminho para o aluno seguir. A criação das primeiras rubricas é trabalhosa,<br />
mas depois que se pega o jeito e vendo o impacto do seu uso com os alunos, torna-se um<br />
instrumento poderoso, transformador e orientador dos processos de aprendizagem. Existem<br />
ferramentas como a Rubric Machine (THINKINGGEAR, 2004) que facilitam a criação<br />
dessas rubricas.<br />
Muitas vezes as atividades que propomos para que os alunos atinjam certos objetivos e<br />
desenvolvam suas qualidades estão diretamente relacionadas à criação de algum produto<br />
(um ensaio, uma peça de teatro, um objeto físico, um software, uma apresentação, etc). As<br />
rubricas funcionam como um instrumento de avaliação também dos processos, não somente<br />
dos produtos. A maneira mais efetiva de usá-las é deixar que os alunos façam autoavaliações<br />
e avaliações de colegas ao longo do processo e no final o professor use a mesma<br />
rubrica para as avaliações finais.<br />
A capacidade de trabalhar colaborativamente é outra qualidade muito falada mas pouco<br />
avaliada. Novamente aqui o uso de um instrumento de acompanhamento e avaliação pode<br />
transformar e orientar o processo. Uma das possibilidades é definir papéis sempre que um<br />
grupo for se reunir para desenvolver os trabalhos. Dependendo do tamanho dos grupos<br />
pode-se definir mais ou menos papéis, por exemplo, um moderador que fique encarregado<br />
de que todos tenham igual chance de participação no grupo, um controlador do tempo, um<br />
responsável por elaborar uma síntese no final dos trabalhos, um responsável por levantar as<br />
dúvidas e as fontes de informação que serão consultadas para respondê-las, um anotador<br />
para fazer um registro das discussões, etc. Quando se faz um rodízio entre esses papéis os<br />
alunos passam a perceber se têm aptidão para aquele papel e o quanto dependem um do<br />
outro. O registro que o anotador faz pode ser um instrumento valioso de avaliação do<br />
processo. Se esse registro contiver o nome e as participações de cada aluno, ao final da<br />
sessão em grupo, é possível em pouco tempo, tanto para alunos como para o professor,<br />
fazer uma análise de quão colaborativo foi o trabalho, se apenas uma pessoa dominou e deu<br />
idéias, se houve “disputas” internas no grupo, se alguém não se manifestou, etc. Apesar de<br />
algum trabalho extra para os alunos e professor, o uso desse tipo de instrumento demonstra<br />
a preocupação e valorização da colaboração.<br />
Citamos aqui o projeto LabVirt (NUNES, 2002) onde alunos de escolas públicas criam<br />
situações-problema condizentes com os assuntos curriculares que estão trabalhando,<br />
escrevem roteiros para a criação de simulações para a Internet representando essas
situações-problema, e aluno universitários dos cursos de educação, arquitetura e engenharia<br />
da computação produzem as simulações. Nas escolas os trabalhos são guiados e avaliados<br />
por rubricas instrucionais e registros dos trabalhos em grupo (CURCIO, NUNES, 2005).<br />
Exemplos de critérios colocados nas rubricas envolvem: domínio do conteúdo, criatividade,<br />
pontualidade, e capacidade de expressão. No âmbito desse projeto desenhou-se uma<br />
ferramenta para acompanhamento e avaliação de trabalhos em grupo que faz uso de PDAs<br />
(Personal Digital Assistents) ligados a um computador central via wireless que permite uma<br />
consolidação e visualização das participações já ao final das aulas. O desenvolvimento<br />
dessa ferramenta está sendo feito e os testes de uso serão realizados no ano de 2005.<br />
Quando se pensa em ambientes colaborativos suportados pela tecnologia uma imensa gama<br />
de registros e métodos de avaliação é aberta. Para encerrar esta contribuição citamos os<br />
ambientes de colaboração que naturalmente oferecem feedback aos usuários e permitem a<br />
construção coletiva do conhecimento como o CSILE e o Knowledge Forum (BEREITER,<br />
SCARDAMALIA, 2003). Esses ambientes fazem “aflorar” e explicitam o processo de<br />
sugestão de idéias, coleta de dados, elaboração de hipóteses e construção de teorias,<br />
servindo quase que naturalmente como ferramenta tanto de construção do conhecimento<br />
quanto de avaliação.<br />
Referências<br />
ANDRADE, H. G. Using Rubrics to Promote Thinking and Learning. Educational<br />
Leadership, vol 57, n. 5, p. 13-18, 2000.<br />
BENETT, R.E.; JENKINS, F.; PERSKy, H.; WEISS, A. Assessing Complex Problem<br />
Solving Performances, Assessment in Education, special issue Assessment for the Digital<br />
Age, v. 10, p 347-359, 2003.<br />
BEREITER, C.; SCARDAMALIA, M. Learning to work creatively with knowledge. In E.<br />
De Corte, L. Verschaffel, N. Entwistle, & J. van Merriënboer (Eds.), Powerful learning<br />
environments: Unravelling basic components and dimensions. (Advances in Learning and<br />
Instruction Series). Oxford, UK: Elsevier Science, 2003. Disponível em<br />
http://ikit.org/fulltext/inresslearning.pdf . Acessado em 09 de dez. 2004.<br />
BOUD, D; FELLETI, G. The Challenge of Problem Based Learning. London: Kogan Page,<br />
1998.<br />
BRANSFORD, J.D.; BROWN, A.L.; Cocking, R.R. How People Learn: Brain, Mind,<br />
Experience, and School. Expanded edition. Washington: National Academy Press, 2000,<br />
374 p.<br />
BRUER, J.T. Schools for Thought: A Science of Learning in the Classroom. Cambridge:<br />
MIT Press, 1999. 324 p.
CURCIO, C.F.; NUNES, C.A.A. <strong>Avaliação</strong> como facilitadora da aprendizagem. Trabalho<br />
aceito no XVI Simpósio Nacional de Ensino de Física, a ser publicado nos anais do<br />
congresso. Rio de Janeiro, janeiro de 2005.<br />
DAVIDSON, J. E.; DEUSER, R.; STERNBERG, R. J. The role of metacognition in<br />
problem solving. In: METALCAFE, J.; SHIMAMURA, A P. Knowing about Knowing.<br />
Cambridge, Massachusetts: MIT, 1996<br />
DAVIS, C.; NUNES, M.R.; NUNES, C.A.A. Metacognição e sucesso escolar: ligando a<br />
teoria à prática. Aceito para publicação na Revista Brasileira de Educação. Trabalho<br />
convidado na XXVII Reunião Anual da ANPED, Caxambu, MG, 2004.<br />
HERL, H.E.; O’NEIL JR., H.F.; CHUNG, G.K.W.K.; SCHACTER, J. Reliability and<br />
Validity of a Computer-Based Knowledge Mapping System to Measure Content<br />
Understanding. Computers in Human Behavior, v. 15, p 315-333, 1999.<br />
LANDAUER, T.K.; LAHAM, D.; FOLTZ, P. Automatic Essay Assessment. Assessment in<br />
Education, special issue Assessment for the Digital Age, v. 10, p 295-308, 2003.<br />
MANSILLA, V.B.; GARDER, H. What are the qualities of understanding? In: ________<br />
Teaching for Understanding, San Francisco: Jossey-Bass, 1998, p 161-196.<br />
McFARLANE, A. Editorial. Assessment for the Digital Age. Assessment in Education,<br />
special issue Assessment for the Digital Age, v. 10, p 261-266, 2003.<br />
NUNES, C. A. A. (2002). Collaborative Content Creation by Cross-Level Students.<br />
Apresentado no 2 nd International Conference on Open Collaborative Design for Sustainable<br />
Innovation: creativity, control and culture for sustainable change. Bangalore, India, 1-2<br />
December 2002. Disponível: http://www.thinkcycle.org/tcpapers/?paper_id=37447&show_full=1<br />
Acesso em 09 dez. 2004<br />
NUNES, C.A.A.; NUNES, M.R.; DAVIS, C. Assessing the Inaccesible: metacognition and<br />
attitudes, Assessment in Education, special issue Assessment for the Digital Age, v. 10, p<br />
376-388, 2003.<br />
NUNES, M.R.; DAVIS, C. New Technologies, New Ways of Learning? Presented at The<br />
Future and Challenges of Educational Assessment in the 21st Century, 27th Annual IEAE<br />
Conference. Rio de<br />
Janeiro, Brazil, 2001.<br />
PELLEGRINO, J.W.; CHUDOWSKI, N.; GLASER, R. Knowing What Students Know:<br />
The Science and Design of Educational Assessment. Washington: National Academy Press,<br />
2003, 382 p.<br />
PERKINS, D.N. What is Understanding? In: ________ Teaching for Understanding, San<br />
Francisco: Jossey-Bass, 1998, p 39-58.
QUELLMALZ, E.S.; KOZMA, R. Designing Assessments of Learning with Technology,<br />
Assessment in Education, special issue Assessment for the Digital Age, v. 10, p 389-407,<br />
2003.<br />
RIDGWAY, J.; McCUSKER, S. Using Computers to Asses New Educational Goals,<br />
Assessment in Education, special issue Assessment for the Digital Age, v. 10, p 309-328,<br />
2003.<br />
THINKINGGEAR – http://www.thinkinggear.com/tools , acesso em 09 dez. 2004.<br />
TISHMAN, S.; PERKINS, D.N., JAY, E. A Cultura do Pensamento na Sala de Aula. Porto<br />
Alegre: Artmed, 1999, 243 p.<br />
WIRTH, J.; KLIEME, E. Computer-based Assessment of Problem Solving Competence,<br />
Assessment in Education, special issue Assessment for the Digital Age, v. 10, p 328-345,<br />
2003.<br />
WISKE, M.S. Teaching for Understanding: linking research with practice. San Francisco:<br />
Jossey-Bass, 1998, 378 p.<br />
WISKE, M.S. What is Teaching for Understanding? In: ________ Teaching for<br />
Understanding, San Francisco: Jossey-Bass, 1998, p 61-86.