31.07.2015 Views

Ocena zachowania użytkowników platformy handlu C2C - E-mentor

Ocena zachowania użytkowników platformy handlu C2C - E-mentor

Ocena zachowania użytkowników platformy handlu C2C - E-mentor

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

3 Od redakcji3 Aktualności4 Nowelizacja regulacji dotyczących kształcenia na odległość– nowy projekt rozporządzenia MNiSWmetody, formy i programy kształcenia6 Procedury a wartości akademickie – środowiskowa dyskusja14 Powinność w świecie cyfrowym – recenzjaPiotr Bołtuć18 Dobre praktyki corporate governance.Światowe tendencje a polskie doświadczeniaMaria Aluchna26 Prezentacja profesjonalna – recenzjaMarta Juchnowicz27 E-obywatel – przezwyciężanie barierBeata Chodacka, Marek Miłosze-edukacja w kraju32 Badanie eye tracking – jak zwiększać czytelność tekstuw internecieWojciech Chojnacki36 Edukacja w służbie marketingu, czyli jak nauczyć klientamądrego kupowania, wykorzystując internet jako mediumPiotr Lewandowski, Tomasz Chudak41 E-learning. Identyfikacja stanu rozwoju i jego przyszłekoncepcje w kształceniu studentów – relacja z konferencjiAnna Piaskowska43 Kurs online z przysposobienia bibliotecznego– studium przypadkuRafał Moczadło47 Efektywność projektu LAMS WZiEU – studium przypadkuAdam Stecykzarządzanie wiedzą52 Rozwój organizacji uczącej się a zarządzanie talentamiJoanna Tabor59 Open Innovation – nowe podejście w procesach innowacjiBeata Mierzejewskakształcenie ustawiczne70 Motywy uczestnictwa nauczycieli w kształceniu ustawicznymAleksandra Litawae-biznes76 <strong>Ocena</strong> <strong>zachowania</strong> użytkowników <strong>platformy</strong> <strong>handlu</strong> <strong>C2C</strong>na podstawie eksploracji danych i ich aktywnościw internetowym systemie aukcyjnymArtur Strzelecki, Tomasz Bacewicz, Marcin Ściański83 Rola i znaczenie Web 2.0 w funkcjonowaniu przedsiębiorstwaZbigniew E. Zielińskie-edukacja na świecie88 Validating a Measurement Toolof Presencein Online Communities of InquiryKaren P. Swan, Jennifer C. Richardson, Philip Ice, D. Randy Garrison,Martha Cleveland-Innes, J. Ben Arbaugh


Od re dak cjiSzanowni Czytelnicy „e-<strong>mentor</strong>a”,miło mi zaprezentować nowy numer pisma. W bieżącym wydaniu „e-<strong>mentor</strong>a” szczególnej uwadze polecam artykułnt. open innovation, podejmujący problematykę rozwoju nurtu open source w zarządzaniu. Równie gorąco rekomendujęlekturę doniesienia z badania dotyczącego czytelności treści stron internetowych i opartego na metodzie eyetracking.Na łamach „e-<strong>mentor</strong>a” publikujemy także zapis panelu dyskusyjnego, który odbył się w czasie konferencji pt.Wartości i procedury w pracy akademickiej, zorganizowanej pod patronatem Państwowej Komisji Akredytacyjnej orazFundacji na rzecz Nauki Polskiej. Prelegenci, dzieląc się swoimi bogatymi doświadczeniami, próbowali odpowiedzieć nazasadnicze pytanie – czy procedury działania instytucji akademickich sprzyjają wartościom etosu akademickiego?Istotnym punktem bieżącego wydania „e-<strong>mentor</strong>a” jest również analiza dot. motywów uczestnictwa nauczycieliw kształceniu ustawicznym, którą poprzedzono rozpoznaniem potrzeb edukacyjnych tej grupy zawodowej. Dokonanoteż próby ustalenia zależności pomiędzy długością stażu pracy pedagoga a rodzajem zaistniałej u niego motywacji.Na zakończenie chciałbym poinformować, iż Ministerstwo Nauki i Szkolnictwa Wyższego szykuje zmiany w rozporządzeniudotyczącym kształcenia na odległość. Planowana nowelizacja regulacji ma wyeliminować najbardziejkontrowersyjne zapisy – różnicowanie uczelni ze względu na uprawnienia naukowe, przy określaniu maksymalnegoprocentu zajęć online na studiach oraz specjalne uprawnienia dla organizacji studiów z zastosowaniem metod i technikkształcenia na odległość poza Europą. Tym niemniej, zakres zmian proponowanych przez Ministerstwo jest zbytubogi względem koniecznych modyfikacji prawa. Obecny kształt rozporządzenia MNiSW nie przystaje do wyzwań,jakie stoją przed ośrodkami akademickimi na gruncie zastosowania nowoczesnych technologii w dydaktyce. Treśćnowego projektu rozporządzenia, jak również opinię minister Barbary Kudryckiej w tej sprawie, publikujemy nałamach „e-<strong>mentor</strong>a”.Przypominam również Czytelnikom o możliwości zgłaszania informacji na temat organizowanych konferencji,seminariów oraz innych środowiskowych wydarzeń do kalendarza konferencyjnego, który dostępny jest na łamachwersji internetowej „e-<strong>mentor</strong>a”.Marcin Dąbrowskiredaktor naczelnyAktualnościNGO: Bezpłatne kursy e-learningowe dla organizacji pozarządowychFundacja Instytut Innowacji zaprasza do udziału w bezpłatnych kursach e-learningowych dla organizacji pozarządowych,które będą dostępne na stronie Instytutu Innowacji www.ii.org.pl do 30 czerwca 2008 r.. Tematyka kursów dotyczy m.in.współpracy z wolontariuszami, kształtowania wizerunku organizacji i zarządzania nią.NowoczesnaFirma: Tele-learning w ofercie ROI ConsultingPierwsza w Polsce platforma tele-learningowa jest już w ofercie ROI Consulting. Platforma służy udostępnianiu usług szkoleniowychw nowym, nieznanym dotąd na otwartym rynku, kształcie. Rozwiązanie umożliwia przeszkolenie kilkuset użytkownikówjednocześnie. Zastosowanie tele-learningu w procesie szkoleń, to przede wszystkim wsparcie dla tradycyjnej metodynauczania. Jednym z ciekawszych zastosowań jest możliwość realizowania testów po szkoleniu. Wystarczy zadzwonić podwskazany numer, system identyfikuje użytkownika i automatycznie generuje test właściwy konkretnemu kursowi.edunews: Laboratorium gier edukacyjnychPopularność gier komputerowych i wideo skłania instytucje edukacyjne do zastanowienia się nad wykorzystaniem tych narzędziw edukacji społecznej. W Nowym Jorku powstało laboratorium PETLab, które zajmować się będzie badaniem gier i symulacjiw procesie edukacji oraz projektowaniem i rozwojem gier edukacyjnych dla podmiotów publicznych i prywatnych.PAP: Kurs e-learning dla dzieciFundacja Dzieci Niczyje udostępniła pierwszy z sześciu bezpłatnych kursów e-learning z zakresu bezpieczeństwa w internecie.Projekt współrealizowany jest przez Fundację Grupy TP i zakłada produkcję kursów, których adresatami będą uczniowieszkół podstawowych, gimnazjalnych i ponadgimnazjalnych. Dodatkowo przewiduje się przygotowanie kursów dla rodzicówi nauczycieli.CampusTechnology: Creating a Collaborative Syllabus Using MoodleA “collaborative syllabus” is one in which the students have the ability to help determine the specifics of a course. Thosespecifics can be any element that a professor is willing to be flexible with (such items as the objectives, grading, attendancepolicies, types of assignments, and so on). The logic behind this tool is that by actively participating in the creation of thesyllabus, students are able to signal what they want to learn and how they want to learn it and then (potentially) set thestandard by which they will be accountable.Więcej doniesień z najważniejszych wydarzeń w e-learningu i ICT dostępnych jest w serwisie:wioska.net – codziennie nowe informacje nt. e-edukacji.kwiecień 2008 3


Nowelizacja regulacji dotyczących kształceniana odległość – nowy projekt rozporządzenia MNiSWMinisterstwo Nauki i Szkolnictwa Wyższego szykuje nowelizacjęregulacji dotyczących kształcenia na odległość.Wprowadzone pół roku temu rozporządzenie spotkało sięz dużą krytyką ze strony środowiska akademickiego. Obecnieproponowana nowelizacja eliminuje dwa najbardziejkontrowersyjne zapisy – różnicowanie uczelni ze względuna uprawnienia naukowe przy określaniu maksymalnegoprocentu zajęć online na studiach oraz specjalne uprawnieniadla organizacji studiów z zastosowaniem metodi technik kształcenia na odległość poza Europą.To ważny kierunek zmian, jednak propozycję Ministerstwamożna uznać za zbyt ostrożną – przynajmniejz dwóch powodów. Pierwszy to konsekwentne uniemożliwianieprzez MNiSW prowadzenia pełnych studiówe-learningowych – wspomniane już zrównanie uczelni podwzględem możliwości stosowania metod i technik kształceniana odległość nie powinno wiązać się z limitowaniem ichzastosowania na poziomie 60 procent w stosunku do całościstudiów. Drugi powód uznania propozycji MNiSW za zbytostrożną to pozostawienie innych, wadliwych zapisóww obowiązującym rozporządzeniu. Warte modyfikacji sąfragmenty, które m.in. nakazują przeprowadzanie zaliczeńi egzaminów w siedzibie uczelni (co znacząco utrudniastudiowanie osobom przebywających zagranicą) oraznakładają na uczelnię obowiązek organizacji formalnychszkoleń przygotowawczych dla studentów (co z powodzeniemmogłoby być zastąpione zapewnieniem praktycznejpomocy technicznej studentom w wirtualnym środowiskunauczania). Pozostawienie zapisów nieprzystających doświatowych trendów powoduje znaczące ograniczeniemożliwości uczelni w pozyskiwaniu nowych grup studentów,a tym samym skutkuje negatywnie na konkurencyjnośćpolskich ośrodków akademickich na światowym rynku.Czytelnikom „e-<strong>mentor</strong>a” warto przypomnieć, iż StowarzyszenieE-learningu Akademickiego przygotowałośrodowiskowy projekt rozporządzania regulującego zasadystosowania metod i technik kształcenia na odległość. ProjektSEA został zaprezentowany na łamach „e-<strong>mentor</strong>a”w lutym 2007 roku – wydanie 1 (18).Treść najnowszego projektu rozporządzenia Ministerstwa(z 25 lutego 2008 roku), zmieniającego obowiązującyakt prawny, prezentuje się następująco:ROZPORZĄDZENIE MINISTRA NAUKI I SZKOLNICTWA WYŻSZEGOz dnia ................................ 2008 r.zmieniające rozporządzenie w sprawie warunków, jakie muszą być spełnione,aby zajęcia dydaktyczne na studiach mogły być prowadzone z wykorzystaniem metod i technikkształcenia na odległośćNa podstawie art. 164 ust. 4 ustawy z dnia 27 lipca2005 r. – Prawo o szkolnictwie wyższym (Dz. U.Nr 164, poz. 1365, z późn. zm.) zarządza się, conastępuje:§ 1. W rozporządzeniu Ministra Nauki i SzkolnictwaWyższego z dnia 25 września 2007 r. w sprawiewarunków, jakie muszą być spełnione, aby zajęciadydaktyczne na studiach mogły być prowadzonez wykorzystaniem metod i technik kształcenia naodległość (Dz. U. Nr 188, poz. 1347 i Nr 208, poz.1506) wprowadza się następujące zmiany:z wykorzystaniem metod i technik kształcenia naodległość, nie może być większa niż 60% ogólnejliczby godzin zajęć dydaktycznych określonych w standardachkształcenia dla poszczególnych kierunkówstudiów oraz poziomów kształcenia, z wyłączeniemzajęć praktycznych i laboratoryjnych.”;2) uchyla się § 5a.§ 2. Rozporządzenie wchodzi w życie po upływie14 dni od dnia ogłoszenia.1) § 5 otrzymuje brzmienie:„§ 5. Liczba godzin zajęć dydaktycznych na studiachstacjonarnych i niestacjonarnych, prowadzonychMINISTERNAUKI I SZKOLNICTWA WYŻSZEGOW uzupełnieniu publikacji tego projektu ministerBarbara Kudrycka wyjaśniała – Poprzednie rozporządzenienie było dobre: przepisy niepotrzebnie komplikowaływarunki, jakie muszą spełnić uczelnie, by kształcić naodległość. Wprowadzone przez nas zmiany to przedewszystkim reakcja na postulaty środowiska akademickiego.Najważniejsza dotyczy paragrafu 5. dotyczącego proporcjiliczby godzin zajęć prowadzonych z wykorzystaniem metod4 e-<strong>mentor</strong> nr 2 (24)


Nowelizacja regulacji dotyczących kształcenia na odległość...i technik kształcenia na odległość. W nowym rozporządzeniuustaliliśmy te proporcje na jednym poziomie – bez różnicowaniago ze względu na uprawnienia szkół wyższychdo nadawania stopni naukowych. Takie uprawnienia mająprzecież w przypadku kształcenia na odległość mniejszeznaczenie, zwłaszcza że już na etapie starań o uprawnieniado prowadzenia danego kierunku studiów uczelnia musiwykazać, że dysponuje wymaganą kadrą naukową. Nie mapowodów, by na potrzeby kształcenia na odległość wprowadzaćdodatkowe wymagania dotyczące uprawnień do doktoryzowaniaczy habilitacji. Jestem przekonana, że ta zmianaprzyczyni się do rozszerzenia możliwości wykorzystaniaprzez uczelnie metod i technik kształcenia na odległośćzarówno na studiach stacjonarnych, jak i niestacjonarnych.Jeżeli chodzi o wysokość progu – proporcji zajęć to oczywiściedopiero projekt rozporządzenia i teraz, na etapiekonsultacji społecznych, będziemy bardzo uważnie przysłuchiwaćsię ocenom i komentarzom na jego temat. Jeśliokaże się, że np. w opinii zainteresowanych próg powinienwynosić nie 60 a 70 procent – zapewne to uwzględnimy.PolecamyKatarzyna Garbacik, Magdalena ŻmiejkoCzas na przedsiębiorczość, Podstawy przedsiębiorczości – podręcznik dla szkółponadgimnazjalnych, Wydawnictwo Szkolne PWN, Warszawa – Łódź 2008Publikacja jest podręcznikiem dla szkół ponadgimnazjalnych do przedmiotu podstawyprzedsiębiorczości. W skład całościowego pakietu edukacyjnego wchodzą również: Zeszytćwiczeń oraz Niezbędnik nauczyciela.Podręcznik jest zgodny z programem przedmiotu. W pierwszych rozdziałach przedstawiaogólne spojrzenie na gospodarkę, a następnie omawia zagadnienia bycia pracownikiem, zakładaniawłasnego przedsiębiorstwa oraz zarządzania nim. Autorki zwracają również uwagę nakwestie etyczne, globalne tendencje w gospodarce oraz problemy ekonomiczne państwa.Książka napisana jest w przystępnej formie oraz wzbogacona licznymi przykładami, wykresami,tabelami, a także ciekawostkami. Wyróżniono najważniejsze definicje i kwestie dozapamiętania. Każda część kończy się zadaniami sprawdzającymi.Pakiet edukacyjny dostępny w księgarni internetowej wydawcy: http://www.wszpwn.com.plPsychologia w Internecie – Internet w Psychologii„Zagadnienia metodologiczne, kliniczne, komunikacyjne i etyczne”8 maja 2008 r., Instytut Psychologii Uniwersytet Kazimierza Wielkiego w BydgoszczyGłównym celem seminarium jest przedyskutowanie zagadnień dotyczących następujących obszarów problemowych:• Metodologiczne i etyczne dylematy badań psychologicznych internetu oraz w internecie, z perspektywy psychologiispołecznej i klinicznej;• Modele i mechanizmy komunikacji w świecie realnym i wirtualnym: Kompetencje komunikacyjne i jej parametry;• Rozwój, zdrowie i funkcjonowanie człowieka w Erze Internetu: Wyzwania i zagrożenia;• Pomoc Psychologiczna Online: Wyzwania i perspektywa w systemie usług psychologicznych.Wymiana informacji oraz poglądów podczas seminarium stanie się z pewnością źródłem inspiracji dla nowychpomysłów i współpracy w opracowaniu projektów, a także przyczyni się do integracji wiedzy, rozwoju działalnościna rzecz rozwiązywania problemów funkcjonowania psychospołecznego człowieka oraz promocji zdrowiapsychicznego w Polsce. Więcej informacji na: http://www.ukw.edu.plKonferencja naukowa Konkurencyjność, wiedza, innowacje: Polska na tle Europy i współczesnych wyzwańrozwojowych, 16 maja 2008 r., SGH, WarszawaKonferencja będzie się koncentrować szczególnie wokół oceny poziomu konkurencyjności Polski na tle innychkra jów europejskich, zwłaszcza w kontekście procesów pogłębia nia integracji europejskiej oraz analizy czynnikówkonkurencyjności (szczególnie postępu technicznego, kapitału ludzkiego) oraz możliwości rozwojowych polskiejgospodarki. Kolejne sesje poświęcone będą tematyce:• Konkurencyjność Polski w procesie pogłębia nia integracji europejskiej i budowy gospodarki wiedzy;• Kapitał ludzki i postęp techniczny w modelach ekonomicznych;• Kapitał intelektualny, systemy innowacji, zarządzanie wiedzą.Więcej informacji na http://www.instytut.infokwiecień 2008 5


metody, formy i programy kształceniaProcedury a wartości akademickie– środowiskowa dyskusjaTreść panelu dyskusyjnego pt. „Czy procedury działania instytucji akademickichsprzyjają wartościom etosu akademickiego?”, zorganizowanego podczas konferencji„Wartości i procedury w pracy akademickiej”.W dniu 11 marca 2008 roku w Szkole Głównej Handlowejw Warszawie odbyła się konferencja pt. Wartościi procedury w pracy akademickiej, pod patronatem PaństwowejKomisji Akredytacyjnej oraz Fundacji na rzeczNauki Polskiej. Konferencja była okazją do prezentacjiwyników i podsumowania grantu KBN pt. Wartościakademickie a jakość kształcenia i badań naukowych. Relacjepomiędzy aksjologicznym i proceduralnym podejściemdo pracy akademickiej, który realizował od 2005 rokumiędzyuczelniany zespół, pod przewodnictwem prof.Ewy Chmieleckiej 1 .W konferencji wzięli udział reprezentanci władzi pracownicy akademiccy, jak również przedstawicieleorganizacji społecznych i rządowych. Konferencjapodzielona została na trzy sesje, z których dwiepierwsze, tj. Etos akademicki oraz Regulatory pracyakademickiej: wartości a procedury zapewniania jakości,koncentrowały się na wystąpieniach omawiających poszczególneaspekty zrealizowanego badania oraz nadyskusjach wokół jego wyników. Część trzecia w całościpoświęcona została debacie zatytułowanej: Czyprocedury działania instytucji akademickich sprzyjają wartościometosu akademickiego? W panelu wzięli udział:moderator – prof. Janina Jóźwiak (przewodniczącaRady Fundacji na rzecz Nauki Polskiej), prof. AnnaZielińska-Głębocka (Państwowa Komisja Akredytacyjna,posłanka na Sejm RP), prof. Jerzy Woźnicki (prezesFundacji Rektorów Polskich) i prof. Stanisław Chwirot(przewodniczący Uniwersyteckiej Komisji Akredytacyjnejw latach 1996–2006). W drugiej części debaty dopanelistów dołączyli uczestnicy konferencji.Obszerne fragmenty panelu dyskusyjnego publikujemyna łamach „e-<strong>mentor</strong>a”.prof. Janina Jóźwiak – Tytuł panelu, tj. Czy procedurydziałania instytucji akademickich sprzyjają wartościometosu akademickiego? jest dla mnie osobiście nieco prowokacyjny.W pytaniu tym tkwi założenie, że istniejejakieś napięcie czy konflikt pomiędzy pojęciem etosuakademickiego a procedurami. Chociaż wydawałobysię, że procedury, które stanowią coś w rodzaju kodyfikacjireguł postępowania, powinny etos akademickiwspierać i budować. Być może jednak przestały przywiązywaćwagę do wartości etosu. Jeśli jakiś konfliktrzeczywiście istnieje, to jakie są jego przyczyny? Czyźródła tego napięcia są identyfikowalne?prof. Anna Zielińska-Głębocka – Chciałabym podzielićsię swoimi doświadczeniami z – już prawiesiedmioletniej – działalności w Państwowej KomisjiAkredytacyjnej, gdzie niejednokrotnie zastanawialiśmysię nad tym, czy pracować jeszcze intensywniejnad procedurami oceniania jakości. Mieliśmy jużwówczas przepisy prawne – Prawo o szkolnictwiewyższym oraz stosowne rozporządzenia, któreszczegółowo określały nazwy kierunków, standardynauczania, warunki, jakie musi spełniać uczelnia,aby prowadzić dany kierunek. Zrodziło się jednakpytanie: czy to jest dla nas wystarczające i czy niepowinniśmy pracować nad własnymi procedurami. Podoświadczeniach z pierwszej kadencji doszliśmy downiosku, że warto zajmować się procedurami. Byłyone ukierunkowane oczywiście na jakość kształcenia,jednakże rodziły wątpliwość, jak tę jakość definiowaći badać oraz – co najważniejsze – jak podnieść kompleksowojakość produktu kształcenia. Przyjęliśmy,że oceniać będziemy cały, szeroko rozumiany proceskształcenia, czyli: jak przekazywana jest wiedza, jakąwiedzę oraz w jaki sposób studenci otrzymują, jakiewynoszą z uczelni umiejętności i postawy (czyli takżeto, co jest przedmiotem naszej debaty – wartościi etos – również w odniesieniu do studenta).Dosyć szczegółowo próbowaliśmy to wszystkoopisać i chcę powiedzieć, że dostrzegam pozytywnyskutek naszej ciężkiej pracy w PKA nad procedurami.Otóż w bardzo wielu uczelniach, które, powiedziałabym,niekoniecznie są uczelniami wiodącymi, etosakademicki zdecydowanie się podniósł. Okazałosię, że nasza działalność, czyli pomoc proceduralna,tłumaczenie, na czym polega jakość oraz na czympolegają wewnętrzne systemy oceny jakości, mająsens i że to wszystko pomaga utrzymać przynajmniejminimalny poziom jakości kształcenia.1Zespół aplikujący grantu stanowili: prof. Ewa Chmielecka, prof. Adam Węgrzecki, prof. Maria Wójcicka, prof. ElżbietaFirlit, prof. Marek Witkowski, prof. Bohdan Macukow, Marcin Dąbrowski.6 e-<strong>mentor</strong> nr 2 (24)


Procedury a wartości akademickie...prof. Jerzy Woźnicki – Profesor Anna Zielińska-Głębockazaczęła w ramach wątku bardziej utylitarnego.Natomiast zagajenie profesor Janiny Jóźwiak mieściłosię w wątku fundamentalnym, trafnie odczytane zostałonapięcie w tytule naszej dyskusji, gdyż jest onofaktem. Chciałbym pójść za tą właśnie myślą i odnieśćsię fundamentalnie do kwestii, czy istnieje lub jaki macharakter konflikt pomiędzy wartościami a procedurami.Profesor Chmielecka analizując to zagadnienie,jak sądzić można także z jej tekstu [tekst wchodzącyw skład materiałów konferencyjnych – przyp. „e-<strong>mentor</strong>”],niełatwo odnajduje tutaj równowagę pomiędzyprocedurami i wartościami. Zacytuję teraz fragmenttego opracowania: Przeciwnicy takiego systemu regulacjipracy akademickiej powiadają jednakże, że to lekarstwogorsze jest od choroby i powoduje dalszą destrukcję etosuakademickiego. Sproceduralizowana kultura instytucjonalnamoże być czynnikiem zniechęcającym do myśleniawedług wartości i bezinteresownej służby prawdzie,a zachęcać do podążania za przepisami obciążonyminagrodą lub karą. Otóż zadałbym sobie pytanie, czygdy mówimy o procedurach, to mamy na myśli zasadyi tryb, czy tylko tryb. Różnica jest fundamentalna.Nasza tradycja akademicka i obyczaje wyrastają zeświata wartości, zaś nasze procedury bardzo częstosą podejrzewane o bycie wytworem biurokratycznegooraz centralistycznego myślenia o uczelni i dawno siępożegnały z etosem. To właśnie jest istota problemu.Dodałbym do postawionych już pytań jeszcze jedno:a może procedury to obrona wartości, jaką jest dobrofirmy? Nawiązałbym tu do pojęcia, które nazywa siękulturą organizacji, o czym zresztą pisze pan MarcinDąbrowski w tekście pt. Kultura organizacyjna orazzasady dobrych praktyk w spółkach publicznych i w instytucjachakademickich [tekst wchodzący w składmateriałów konferencyjnych – przyp. „e-<strong>mentor</strong>”].Kodeks Dobrych Praktyk dla szkół wyższych, o którymmowa w tym opracowaniu, od dawna dostępnyjest w formie elektronicznej. Kultura organizacjiw odniesieniu do instytucji życia gospodarczego toznane pojęcie przeniesione ze sztuki zarządzania.Na gruncie instytucji akademickich częściej sięgamypo nazwę kultura instytucjonalna, o której pisałemwiele razy. W instytucjach życia gospodarczego obszardobrych praktyk dotyczy zarządzania i jest właśniezwiązany z pojęciem management practices. Natomiastjeśli chodzi o szkolnictwo wyższe, spotykamy się jużz uogólnieniem tego pojęcia, mianowicie mówimygovernance albo good governance. Powiedziałbym,że obszar good governance w uczelni dotyczy regułzbiorowych działań społeczności, realizowanych zapośrednictwem właściwych organów. W większymstopniu odwołujemy się do etosu, gdy adresujemypewne tezy i wzorce do poszczególnych członkówspołeczności akademickiej. Jeśli jednak odnosimysię do tych, którzy odpowiadają za działania tejspołeczności akademickiej (bo je organizują), towówczas akcentujemy zasady good governance. Zatemw ostatnim przypadku adresatem są organy uczelni:jednoosobowe i kolegialne. W organach kolegialnychmożemy znaleźć się wszyscy i w tym sensie jest to obszarszczególnie ważny dla członków naszej społeczności,bo często dotyczy nas bezpośrednio. Działaniaorganów jednoosobowych – prowadzone zgodniez regułami dobrych praktyk lub nie – na ogół dotycząnas pośrednio, ale są jeszcze ważniejsze, bo kreująwzorce. W tym kontekście stwierdzenie pierwszebrzmi: dobre praktyki, a więc postulowane proceduryalbo przede wszystkim <strong>zachowania</strong> i postawy władzw uczelni, mogą sprzyjać lub nie wartościom etosuakademickiego. I tu stwierdzenie drugie – powinniśmypromować bardziej rozwinięty, zaawansowany model– łańcuch zależności na tym obszarze: etos, postawy,<strong>zachowania</strong>, domyślnie dobre praktyki w organizacjii w działaniach członków jej władz, a dopiero nakońcu procedury, a nie – jak w modelu uproszczonym– etos i jako ostatnie – procedury. Ponieważw tym drugim przypadku może dochodzić w istociedo trywializacji i zaniku etosu pod presją procedur.Regulatorem są wtedy wymogi administracyjnei formalne, na których rozwija się świat procedur.Tymczasem w pierwszym modelu budulcem dla pozytywnegołańcucha zależności we wszystkich stadiachpoprzedzających pojęcie procedur jest świat wartości.Dlatego w tym miejscu widzę pole do kompromisuz profesor Chmielecką. To oznacza odejście od negatywnego,zdeformowanego, zredukowanego łańcuchaciągu zależności na rzecz myślenia w kategoriachrozwiniętego łańcucha, wzbogaconego o wszystkiejego elementy. W konkluzji powiedziałbym, że zasadygood governance wymagają promocji, ponieważstanowią najlepszą formę łączenia tego, co możnapowiedzieć najpiękniej o instytucji akademickiej, żejest to ciągle świątynia wiedzy i powinna próbowaćbyć też centrum doskonałości. Myśl taką zawarłemw swojej książce Uczelnie akademickie jako instytucjeżycia publicznego, gdzie ów aspekt został bardzo silniewydobyty. Podsumowując: nie wolno autonomizowaćtrybu, ale żadna instytucja nie może dobrze działać,jeśli nie stosuje określonych reguł, a w tym procedur.Powiedziałbym, że bardzo ważna jest jednak ichdojrzałość i praktyczna stosowalność. Sposób ichstosowania i zakres wywierają bowiem silny wpływna praktykowaną kulturę instytucjonalną.Bywają instytucje, które uległy nieoczekiwanejkatastrofie i niekoniecznie mam tu na myśli instytucjeakademickie. Zabrakło tam bowiem pewnych procedur,do których należało się stosować. W świeciefinansów były spektakularne przypadki upadku pewnychgrup bankowych. W środowisku akademickimmoglibyśmy wskazać nie dość odpowiedzialne nostryfikowaniedyplomów, spowodowane właśnie brakiemprocedur. Jest to bowiem szczególnie newralgicznemiejsce, gdzie właśnie brak procedur może prowadzićdo błędnych decyzji, których się potem uczelniawstydzi. Procedura często jest także formą ochrony,ale rzecz polega na tym, jak się ją stosuje, po jakiejdrodze ona się pojawia i czy odwołuje się do pewnejtradycji. Wyższa kultura instytucjonalna uczelni sprzyjabowiem dojrzałości jej procedur. Myślę zatem, żew tym ujęciu napięcie, od którego zaczęliśmy, możezostać istotnie zneutralizowane.kwiecień 2008 7


metody, formy i programy kształceniaprof. Stanisław Chwirot – Sprzeczności międzyprocedurami a wartościami nie ma w ogóle, podwarunkiem, że procedury są właściwe. Jest to mocneprzekonanie, które wyniosłem z okresu, kiedy zajmowałemsię jakością kształcenia. Kiedy w połowie lat90. powstało Stowarzyszenie Edukacji Menedżerskiej„Forum”, a potem Komisja Akredytacyjna UczelniMedycznych oraz Uniwersytecka Komisja Akredytacyjna,to wydarzenia te pokazały, jak dużo dobregojest w środowisku, które zaniedbane przez państwo,podjęło się zbudowania w formalny sposób strukturregulujących system. Co istotne, zrobiono to w czasach,kiedy brakowało finansowania na zapewnianiejakości. To uczelnie wyłożyły pieniądze na tworzeniewszystkich systemów akredytacyjnych.Powiedzieliśmy tak: zmierzamy do Europy i dlategobędziemy wymagać, żeby ktokolwiek, kto ubiega sięo naszą akredytację, wprowadził system ECTS. Jakowarunek postawiliśmy też konieczność powstania nauczelni systemu zarządzania jakością, dotyczącegoakredytowanego kierunku. To była zupełna nowość,ponieważ wtedy nikt nie przejmował się jakościąkształcenia. Może nie tak – przejmowało się nią wieleosób, ale problem był postrzegany bardziej jakokwestia sumienia i indywidualnej odpowiedzialnościniż sprawa traktowana systemowo. Nawet nie określaliśmywarunków, jaki ten system ma być. Chodziłoo tworzenie pewnej nowej kultury. Poza tym przyjęliśmy,że przy tak znacznym zróżnicowaniu sektoranie ma mowy o wprowadzaniu żadnych zewnętrznychstandardów. Normy muszą zostać wypracowane przezśrodowiska. Dla każdego środowiska potrafiliśmyznaleźć grupę osób, która, znowu za prawie zerowepieniądze, poświęciła dziesiątki godzin pracy nawyprowadzenie akceptowanych przez wszystkichstandardów. W przypadku pedagogiki doszło dotego, że reprezentanci kilkunastu uczelni opracowalitakie normy, które potem spełniły tylko trzy uczelnie.Wiedza na temat sposobu i metod nauczania istniejew środowisku. Jeżeli wdraża się procedury z taką intencją,to skutki są dobre – przez 10 lat nie mieliśmyjednego przypadku, żeby ktoś próbował oszukać. Tobyło kilkaset osób, kilkaset ocen i nie zdarzyło się,żeby ktoś próbował w brutalny sposób nas okłamać.A to się będzie zdarzało, jeżeli będziemy mieli doczynienia ze sztucznymi procedurami narzucanymiz zewnątrz, wobec których zawsze się buntujemyi które traktujemy jako zło konieczne.Śmiem postawić tezę, że przykładem takich zbędnychdziałań był kilkunastoletni wysiłek, prowadzonyprzez Radę Główną Szkolnictwa Wyższego i kolejnychministrów, mający na celu wprowadzenie standardówkształcenia, czy też minimów, które nawet w obecnejformie, kiedy zostały zatwierdzone, już są nieodpowiednie.Pomijając fakt, że sam sposób określaniaminimów jest taki, a nie inny, to one obecnie umacniająna uczelniach sposób myślenia sprzeczny z tym, co nasczeka w bardzo niedalekiej przyszłości. Wchodzimy doEuropejskiego Obszaru Szkolnictwa Wyższego. KomisjaEuropejska wyraźnie rekomenduje, żeby wszelkiegorodzaju zalecenia „jakościowe” nie odnosiły się dotreści kształcenia, a nasze standardy ich dotyczą i żebyśmynie skupiali się na parametrach wejściowych,lecz na wyjściowych. Cała struktura kwalifikacji, całysposób oceny poprzez kompetencje, które studentwynosi z uczelni, są zupełnie inne niż to, co nam pokilkunastu latach pracy udało się w tej chwili wdrożyći co próbujemy przedstawiać jako wielki sukces. Nie mawięc sprzeczności pomiędzy procedurami a wartościami,jeśli przyjmiemy, że procedury powinny wspieraćwartości, ich promowanie oraz właściwą ewolucjęsektora szkolnictwa wyższego. Chciałbym powiedzieć,że jeżeli robi się to dobrze, procedury są absolutnieniezbędne. Każdy z nas to wie. Procedury są podstawądziałania. Jednym z wielu nieszczęść naszego kraju jestto, że procedur się nie przestrzega, stosuje się je tak,jak jest wygodnie. Powinny one być proste, przejrzystei mieć jasno określony cel.prof. Janina Jóźwiak – Z wypowiedzi profesoraChwirota wynika, iż procedury działają wtedy, kiedy jestspołeczna akceptacja, umowa środowiska i w związkuz tym nie ma napięcia między nimi a wartościami. Muszęniestety dodać, że oczywiście nie ma takiego konfliktudopóki w grę nie wchodzą pieniądze. Natomiasttam, gdzie zaczyna się pojawiać jakikolwiek interes jednostkiczy instytucji, to jednak może zaistnieć napięciepomiędzy etosem a procedurami. Inaczej – proceduryprowadzą do pewnej erozji etosu. Podam przykład,który to zilustruje. Jak państwu wiadomo, istnieje systemparametrycznej oceny jednostek, z którym wiążesię potem poziom finansowania badań statutowychtychże jednostek. W tym systemie jest zamysł, któryma prowokować do podwyższania jakości badań, m.in.czasopisma, w których się publikuje są punktowanew różny sposób; wyżej te z listy filadelfijskiej, niżej telokalne. System punktacji ma zachęcić naukowców dopublikowania w czasopismach o najwyższej renomie.Jednak zmobilizowało to środowisko, aby każde mizernepisemko lokalne dostało większą liczbę punktów niżdotychczas i na tym właśnie skupia się aktywność wieluosób. Chcę powiedzieć, że rzeczywiście proceduryczęsto nie działają wtedy, kiedy nie mają społecznejakceptacji, czy jeśli nie wyrastają wprost z kulturyśrodowiska i kultury instytucji, o czym mówił profesorWoźnicki. Procedury mają też to do siebie, że bardzoczęsto ulegają patologizacji. To, co profesor Chwirotelegancko nazwał łamaniem lub naruszaniem procedurjest niczym innym, jak właśnie erozją etosu, wszystkojedno czy akademickiego, czy też jakiegoś innegośrodowiska. Nie jest to jednak taka prosta sprawa. Nieporzuciłabym myśli, że istnieje jakiś konflikt pomiędzyprocedurami a wartościami.Oczywiście profesor Chmielecka chciałaby funkcjonowaćw idealnym świecie, kiedy całe środowiskoakademickie oddaje się poszukiwaniom prawdy, niezważając na świat zewnętrzny, niezależnie od wszystkiego,w szlachetny sposób oddając swoje życie tejżeprawdzie. Nie jest to oczywiście możliwe do realizacji,ale z drugiej strony chcę nawiązać do tego, co mówiłprofesor Woźnicki o governance. Good governance jest8 e-<strong>mentor</strong> nr 2 (24)


Procedury a wartości akademickie...czymś, co polepsza jakość funkcjonowania wewnątrzinstytucji akademickiej. Problem polega na tym, żepodobnie jak wcześniejsze rozwiązania, chociażbystandardy jakościowe, społeczna odpowiedzialnośći parę jeszcze innych rzeczy zostały wymyślone nieprzez środowisko akademickie, tylko przeniesionez nowych modeli czy z nowego sposobu myśleniao zarządzaniu klasycznym przedsiębiorstwem. Pojęciecorporate governance wzięło się stąd, że dotychczasoweprocedury również tam okazują się niefunkcjonalnealbo prowokują do zachowań, nie chcę powiedziećnieetycznych, ale nie do takich, które wcześniejszeprocedury miałyby wymuszać na pracownikach. Zostałoto teraz przeniesione do instytucji akademickich,ponieważ znowu okazało się, że dotychczasowe proceduryzarządzania szkołą wyższą stają się przestarzałei nie wystarczają do tego, żeby tworzyć środowiskaakademickie i nowoczesny model związany z tradycjąuniwersytecką. Jeśli przyjmiemy, że procedury są traktowanejako dynamiczne zjawisko, to znaczy takie,które przy uznaniu w pełni kultury instytucjonalneji tradycji akademickiej ułatwia podtrzymywanie tego,co jest istotą badań naukowych i nauczania, to oczywiścienie ma sprzeczności. Jeśli natomiast – jak mówiłprofesor Woźnicki – mają ułatwić zarządzanie instytucją,tzn. jej sprawne funkcjonowanie, to perspektywaosób zarządzających jest inna niż tych, którymi sięzarządza. Moglibyśmy więc mówić o napięciach pomiędzykadrą zarządzającą uczelnią a resztą środowiska.Sprawy są znacznie bardziej skomplikowane, dlategowarto o tym mówić. Mam jeszcze komentarz do wystąpieniaprofesor Zielińskiej-Głębockiej, która mówiła, żeproblemem są małe uczelnie. Otóż jeśli chodzi o etosakademicki, wydaje mi się, że jego erozja, być możenajbardziej bolesna i zauważalna, występuje w dużych,tradycyjnych uniwersytetach czy ośrodkach. Dziękujębardzo i otwieram teraz dyskusję.prof. Ewa Chmielecka – Jeśli ja postawiłam prowokującepytanie, to co dopiero mówić o wypowiedziprofesora Woźnickiego. Spieramy się od dość dawnao to, czy istnieje napięcie pomiędzy proceduramia etosem. Ja powiedziałabym przewrotnie: procedurynie szkodzą, gdy etos jest podtrzymywany, bowiem sąone wtedy wypełniane właściwą treścią (notabene wtedynic nie szkodzi). Natomiast pytanie o to, czy przestrzeganieprocedur, czy nawet zasad good governance, chronidobre funkcjonowanie instytucji w sytuacji zagrożeniaetosu, nie znajduje już tak łatwej i szybkiej odpowiedzi.Podany został tutaj przez profesora Woźnickiego przykładtego nieszczęsnego młodziana, który doprowadziłdo upadku Bank Baringsa (a niedawno następny młodyczłowiek zadziałał w podobny sposób na szkodę jednegoz najważniejszych banków Francji). Błąd w tych wypadkachnie polegał na zaniedbaniu procedur – obydwabanki miały je wdrożone. Jednak gdy procedury, nawette bardzo rozwinięte, trafiają na nieodpowiedzialną,nieetycznie działającą osobę, która chce je złamaćdla własnych korzyści, to okazują się nieskuteczne. Wprzypadku wspomnianych maklerów giełdowych mamyjednak drugie, fatalne dno wynikające z samej naturyich pracy – oni poniekąd z założenia mają być nieodpowiedzialnii nie myśleć według wartości. Zdarzyłomi się raz być w Chicago na parkiecie tamtejszej giełdyi doznałam wstrząsu, widząc zbiorowisko krzyczącychi bardzo młodych ludzi. Na pytanie: dlaczego tylko takmłode osoby wchodzą na parkiet, uzyskałam odpowiedź,że starsi pracownicy są zbyt odpowiedzialni,co znaczy, że nie mogą już podejmować w ułamkachsekund istotnych decyzji, nie rozważając ich skutków.Natomiast młodsi pracownicy są w stanie to uczynić.Najsłynniejszy skandal w świecie biznesu ostatnichlat, czyli afera Enronu, także pokazał, że posiadanieinstytucjonalnych kodeksów etycznych nie zabezpieczaprzed klęską, gdy pracownicy nie mają dobrze ugruntowanegopoczucia szacunku dla wartości – etosuwłaśnie. Myślę, że świadomość tego jest powszechnai z niej biorą się nawoływania o kulturę instytucjonalną,w której zasady dobrych praktyk splatają się z wartościami.Pojawia się w świecie biznesu świadomość, żeprocedury nie mogą etosu zastąpić. Przytoczę tu drugązasadę opublikowanego w lipcu 2007 roku wezwania(wystosowanego przez United Nations Global Impact)o odpowiedzialną edukację biznesową, która brzmitak: Values: We will incorporate into our academic activitiesand curricula the values of… social responsibility. Nawołujeono wprost do kształtowania właściwych postawu przyszłych menedżerów.Jednak nasze główne pytanie dotyczy związku etosui procedur, czyli tego, czy istnieje pomiędzy niminapięcie, czy też są zgodne co do stawianych celówi osiąganych efektów. To nie jest oczywiście sprawaograniczona tylko do pola nauki czy biznesu. To samozjawisko mamy, gdy pytamy, jak prawo wpływa namoralność, jak religie wpływają na wiarę – pojawia sięono wszędzie tam, gdy trzeba działania bazujące nawartościach zinstytucjonalizować i wprowadzić w ramykanonów. Bardzo pięknie mówił o tym zjawisku prof.Gasparski w dyskusji z pierwszej sesji naszej konferencji:[...] mówiąc żartobliwie, kiedy myślę o tej sprawiezaczyna mi brzęczeć w pamięci stara piosenka Franka Sinatry„Love and marriage” – też dotycząca związku wartościi procedur. Otóż ich cele nie mogą być tożsame, choćbydlatego, że instytucja nie może być wartością samąw sobie, lecz powinna być służebną wobec wartościzewnętrznych, a wartości etosowe powinny znaczyćsame w sobie, być autoteliczne. Próba ich wtłoczenia,dopasowania do wymogów procedur, czyniona nawetw najlepszych intencjach, musi im zagrażać, bo jezinstrumentalizuje. W naszych badaniach będziemyśledzić te miejsca w działalności procedur, w którychmusi się pojawić etos niczym nie zmącony, na przykładw momentach recenzji, egzaminowania – jakiejkolwiekoceny merytorycznej. Bez znaczenia jest wówczas, czyzagrożą mu interesy wystawiające na ryzyko uczciwośćuczonego, czy procedury, które dla celów zewnętrznych,np. realizacji strategii rozwojowej uczelni czywydziału, nakazują mu przyłożyć do oceny kryteriazewnętrzne.Uważam – i w tym się zgadzam z profesoremWoźnickim i z profesorem Chwirotem – że na grunciekwiecień 2008 9


metody, formy i programy kształcenianowej kultury instytucjonalnej uczelni spotkają sięprzeformułowane wartości i procedury good governancewypełnione dobrą treścią. Ale daleko namjeszcze do tego stanu. Na razie jesteśmy – myślę, żeznajdzie to potwierdzenie w wynikach naszych badań– na etapie naruszenia wartości tradycyjnego etosuakademickiego, który traci znaczenie jako regulatorżycia uczelni umasowionej, uwikłanej w interesyzewnętrzne, która musi sprostać wymaganiom właściwymdla przedsiębiorstwa, a nie wieży z kości słoniowej– tradycyjnej siedzibie wartości. Takie zmianywymagają wprowadzenia procedur pozwalającychna rozliczanie uczelni ze skuteczności ich działań,w tym procedur zapewniania jakości. W świadomościśrodowiska akademickiego te dwie sfery są splecioneniejasno, jesteśmy w okresie przemian, które, mamnadzieję, doprowadzą nas do uczelnianej kultury instytucjonalnejo wysokiej jakości, gdzie etos będzieprzezierał jasno przez pola pozostawione mu przezprocedury.prof. Łucja Tomaszewicz – Generalizujemy naszeopinie, nie próbując podzielić uczelni na publicznei niepubliczne. Problem jest bardzo skomplikowany,bo gdybym zapytała, ile uczelni niepublicznychpoddało się procedurze weryfikacji przez komisjespołeczne, to okazałoby się, że jest ich bardzo niewiele.Skoro mówimy, że procedury nie przeszkadzają,jeśli wyrastają z „dobrej kultury” akademickiej, topamiętajmy, że pojęcie „dobrej kultury” będzie tutajpojmowane różnie. Wobec tego pytam: jak byśmyporadzili sobie bez procedur? Chcę mówić o tych,które nie przeszkadzałyby nam we właściwej oceniekultury akademickiej. Jeśli weźmiemy pod uwagę,co się dzieje w szkołach niepublicznych, to problempolega na tym, że nie dalibyśmy sobie bez procedurrady. Mało tego. Jest w tym pewna fasadowośći mamy tego pełną świadomość. Na przykład, gdywizytujemy szkoły i sprawdzamy działalność komisjiprogramowej. Pytamy wówczas ile miała spotkań.Odpowiedź brzmi, że przez trzy lata jedno. Komisja,która powinna uzupełniać uczelnianą propozycjęprogramową w zależności od tego, co się dziejew nauce i kształceniu na świecie. Powinniśmy jednakte uczelnie rozróżniać. Miejmy nadzieję, że one sięwyrównają poziomem etosu akademickiego, ale narazie problem nieco inaczej wygląda w szkołachpublicznych i niepublicznych – chociaż jak twierdziprofesor Jóźwiak – erozja w szkołach publicznych istniejei ona niestety przenosi się dodatkowo na szkołyniepubliczne, w których my pracujemy.prof. Janina Jóźwiak – Trochę się boję podziału nauczelnie publiczne i niepubliczne. Oczywiście niepublicznebardziej rzucają się w oczy, jest ich więceji są relatywnie nowe w systemie. Jednak kryteriumwłasności wydaje mi się tutaj niekoniecznie najważniejsze.Dodam jeszcze, że to szkoły niepublicznepierwsze założyły komisję akredytacyjną i stanęływ obronie swojego własnego dobra oraz imienia,a może w obronie rynku edukacyjnego – wszystkojedno, jakie były tego powody. W końcu korporacje niepo to wprowadzają good governance, żeby pracownicysię dobrze czuli, tylko żeby zdobywać nowe segmentyrynku. Byłabym bardziej ostrożna, przyjmując ostrypodział na szkoły publiczne i niepubliczne.prof. Stanisław Chwirot – Akredytacji uniwersyteckiejnie wymyśliła żadna z uczelni. Poza tym ani UniwersytetWarszawski ani Jagielloński, ani Wrocławskinie uzyskały akredytacji dla wszystkich kierunków,na których była przeprowadzana. Każdy ma w szafie„szkielety” i w zasadzie nikt nie wołał o powstaniePKA tak głośno, jak czyniły to komisje środowiskowe.Mieliśmy pełną świadomość, że to jest zadaniepaństwa, bo przekracza możliwości samoregulacyjneśrodowiska. Z żalem twierdzę cały czas, że akredytacjapaństwowa została źle zrobiona. Procedury nie przystajądo celów, które zostały postawione przed PKA.Chociażby dlatego, że w modelu działania PKA powielonozasady akredytacji środowiskowej według kierunkówstudiów, co przekracza możliwości organizacyjnetej Komisji i nigdy nie może być dobrze zrealizowane.Więc skoro nie może to być dobrze zrobione, to porana pogodzenie się z tym faktem i na zmiany. Czas płynie,a my dalej działamy w ten sam sposób. Minie 5 lati nigdy się nie zamknie ocen dla wszystkich uczelni.To jest syzyfowa praca, dlatego że od początku złebyły założenia. Kiedy o tym przestrzegaliśmy, nikt niesłuchał, bo z politycznych względów postanowionoszybko wdrożyć system państwowej akredytacji. Tojest najbardziej kosztowny i czasochłonny sposóboceny, który nadawałby się tylko do bardzo specjalnejakredytacji, kiedy chodziłoby o wyróżnienie wąskiejgrupy lub o akredytację tzw. profesjonalną, a nieocenianie tak masowego zjawiska.prof. Jolanta Gładys-Jakóbik – Wydaje mi się, że to,co się dzieje w środowisku akademickim, pozwala naotwarcie dyskusji nad bardzo różnymi zagadnieniami.Jednym z nich są oczywiście relacje istniejące pomiędzyetosem a procedurami. Bardzo podobają mi siępierwsze wypowiedzi panelistów. Mianowicie to, żemówimy o specyficznej kulturze organizacyjnej szkółwyższych. Z jednej bowiem strony kultura organizacyjnato klasyczne uczelnie wyższe, takie jakie znamyjeszcze sprzed 20-30 lat. Pojawiają się jednak szkoły,które mają charakter mniej lub bardziej biznesowy.Wiedza coraz częściej staje się towarem – ma określonąwartość, generuje określone koszty i, idąc dalejtym tropem, powinna przynosić także zyski. Komu?Kiedyś była to działalność mająca charakter autoteliczny,wielu pracownikom dawała satysfakcję, a niektórym– poczucie misji. Teraz coraz częściej mamydo czynienia z bardziej instrumentalnym podejściem.Jego przejawem jest między innymi stwierdzenie,że student to nasz klient. Dla mnie jest to kolosalneprzeobrażenie, kiedy porównuję je z wcześniejszym10 e-<strong>mentor</strong> nr 2 (24)


Procedury a wartości akademickie...rozumieniem etosu naukowego. Zmienia się takżepostrzeganie nas, a używając języka socjologicznego– zmienia się definicja roli pracownika naukowego.Możemy oczywiście patrzeć na to, jak na zjawiskopostępującej racjonalizacji. Państwo dyskutujecieo środowiskach typu: szkoły publiczne, szkoły prywatne,duże, małe i tak dalej. Pewne działania, <strong>zachowania</strong>,procesy można i należy postrzegać z punktuwidzenia naruszania mapy dotychczas istniejącychinteresów. Interesy kadry zarządzającej uczelniamia interesy reszty środowiska, o czym wspominaławcześniej profesor Jóźwiak, mogą być (i najczęściejsą) odmienne. Problemem jest to, o czym mówiłprofesor Chwirot, żeby udało nam się wynegocjowaći stworzyć takie procedury, co do których istniałabyzgoda nas wszystkich. Procedura działa bowiemskutecznie wtedy, kiedy opiera się lub wychodziz wartości aprobowanych przez większość. To jestideał, do którego warto dążyć. Należy też spojrzeć naomawiany problem z punktu widzenia jego wartościkomunikacyjnej. Dziś jest nam (środowisku naukowemu)trudno osiągnąć porozumienie odnośnie tego, coma dla nas wartość nadrzędną. Czy jest nią intereskrótkofalowy, czy też należy patrzeć trochę dalej?Wiadomo, że dysponujemy ograniczonymi zasobamifinansowymi, musimy więc nauczyć się zarabiać. Czyprzy okazji naprawdę inwestujemy w to, co się określamianem etosu środowiska? Czy też raczej mamy doczynienia z powolną jego erozją? To już jest kwestiąustalonych priorytetów i podejmowanych decyzji.Wracamy więc do punktu wyjścia.prof. Jerzy Woźnicki – Chciałbym zwrócić uwagę,że właściwe procedury muszą spełnić ważne kryterium,to znaczy musi być zrozumiały cel ich stosowania,a nadrzędną kwestią jest, abyśmy rozumieli, poco jest procedura, co ona zapewnia, co zabezpiecza,jakie jest źródło jej pochodzenia. Jeżeli procedurybędą wdrażane przez jakąś umowną władzę i jednapo drugiej będą uzyskiwać nasze zaufanie, bo będziemyrozumieć, po co one są, to zostanie zbudowanakultura zaufania w uczelni. To także należy do kulturyinstytucjonalnej szkoły wyższej.Chciałbym na koniec dokonać wyrywkowegozbilansowania korzyści i kosztów stosowania procedur.W obronie procedur powiedziałbym ogólnie,że działają one w służbie ochrony wartości, na coprzykłady można znaleźć również poza uczelnią.Procedury istnieją choćby w systemie sądowniczym.Gdyby nie było drobiazgowo określonych procedurw Kodeksie postępowania karnego, to przecieżdochodziłoby do dramatycznych naruszeń naszychpraw i wolności. Czy to ma swoje przeniesienie nauczelnie? Oczywiście ma, jak w przypadku postępowaniadyscyplinarnego, które podlega bardzo silnymuregulowaniom proceduralnym w obronie wartości.Gdzie zatem są potrzebne procedury? Zwłaszczatam, gdzie nie ma etosu. Znowu przykład: systemzamówień publicznych. Wiemy, jak się „handlowało”,kiedy go nie było. Weźmy pod uwagę swoistysystem „prowizyjny” u jednego z naszych sąsiadów(duże państwo). Tam, gdzie nie ma etosu, tam musibyć system proceduralny, w tym przypadku zwanysystemem zamówień publicznych. Wreszcie proceduryw życiu uczelni służą też jako mechanizmprzewidywalności jej działania. Szkoła wyższa jestto bardzo szczególna instytucja. Lepiej, aby niecogorsza decyzja była podjęta nieco później, alezgodnie z utrwalonymi zasadami i procedurami,niż odwrotnie. A kiedy jest lepiej? Kiedy decyzjajest przeprowadzana przy udziale tych wszystkichosób, które chcą być zaangażowane, tych organów,które powinny być zapytane o zdanie. Czyli trybdziałania może być równie ważny jak treść decyzji.To jest przykład, że w uczelni, jako instytucji, niemożna się wyrzec procedur. Uzasadnieniem jest to,że przewidywalność funkcjonowania uczelni jest zapewnianaprzez mechanizm jej procedur. Na przykładnie odtrąca się kandydata do awansu na stanowiskoprofesorskie tylko dlatego, że dziekan go nie lubi.Dziekan, choćby nie wiem jak nie lubił kandydata, maprocedurę i nie może się jej sprzeniewierzyć. Procedurasłuży ochronie wartości. Oczywiście procedurymają też swoje koszty. Są to: angażowanie naszegoczasu, rozdrażnienie przewlekłością działań, spóźnioneefekty, spowolnienie uczelni, często pozamerytorycznycharakter procedur. Zawsze jest też jakiśmargines ich niedoskonałości. Gdybym miał dokonaćbilansu kosztów i korzyści stosowania procedur, napodstawie tych wyrywkowo wybranych argumentów,to byłby on zdecydowanie pozytywny. Choć trzebago ciągle poprawiać. Oczywiście latarnią morskąw procesie racjonalizacji działania uczelni, a w tymudoskonalania procedur, powinien być etos.prof. Anna Zielińska-Głębocka – Na początkuchciałabym się przyłączyć do głosu, że trudno dzielićuczelnie na małe i duże, dobre i niedobre. Wynika toz faktu, że są uczelnie, które mają dobre i złe kierunki,albo uczelnie, które mają same złe lub same dobre kierunki.Oczywiście są i uczelnie – również te największe– które słabo kształcą w niektórych dziedzinach.Mamy też uczelnie w małych miejscowościach, któreświetnie kształcą. Mają jeden, dwa kierunki i kształcąw nich doskonale.Druga uwaga dotyczy pytania – czy oceniać wedługkierunków? To jest oczywiście dylemat i znak zapytaniadla różnych instytucji akademickich. Kiedyś taocena była projektowana według specjalności, potemsię okazało, że kierunki. Teraz uczelnie są tak zróżnicowane,że wiele z nich kształci od pielęgniarstwapo filologię polską. W związku z tym ocena kierunkujest koniecznością.Myślę, że gdy mówimy o procedurach, to chyba sątu dwie płaszczyzny. Jedna, o której mówił profesorWoźnicki, to są procedury wynikające z wewnętrznejkultury organizacji, które prawidłowo funkcjonująwtedy, kiedy wartości etosu akademickiego są dobrzerozumiane przez władze, jeśli mamy dobre zarządzanieoraz jeśli istnieją pewne systemy etyczne, którekwiecień 2008 11


metody, formy i programy kształceniawspierają tworzenie procedur. Myślę, że to chyba niepodlega specjalnej debacie. Natomiast warto byłobysię zastanowić nad procedurami, które są narzuconeuczelniom. Myślę przede wszystkim o rozwiązaniachprawnych czy rozporządzeniach ministerialnych,pewnych zasadach funkcjonowania PKA albo komisjiśrodowiskowych. Ważnym pytaniem, które należyzadać jest: czy są one potrzebne? Czy rzeczywiścieniezbędne są zasady szczegółowo określające warunki– że potrzeba tylu profesorów, czy doktorów?Z jednej strony jest to utrudnienie dla akredytatorów,z drugiej pojawia się często jako wizytówka uczelni:„mamy tylu a tylu profesorów, tylu doktorów”, itd.Potem Komisja wyjeżdża, a my wyrzucamy papiery.Wówczas procedura wydaje się czymś komicznym,dlatego że bardzo często te wszystkie dokumentysą produkowane na potrzeby komisji akredytacyjnej.To jest oczywiście dylemat: czy wtedy te procedurycokolwiek znaczą? Tak więc zastanawiałabym się, jakpracować nad takimi, horyzontalnymi rozwiązaniami.Na przykład, czy bylibyśmy w stanie zdefiniować horyzontalnie,jeśli nie kierunkowo, co rozumiemy przezzdobycie wiedzy przez studenta, jak potwierdzimyjego umiejętności? Jakie są tu potrzebne wskaźniki?Jakie są miary albo ewentualnie sugestie, jak to sięrobi? Gdyby na przykład udało nam się wyeliminowaćz uczelni ściąganie, to już mielibyśmy duży sukces.To jest element kształtowania postaw u studentów.Jeżeli student nie rozumie tego, że nie należy ściągać,a pracownik naukowy nie widzi, że studenci ściągają,bo mu łatwiej, to jak mamy kształtować postawy?Zastanowiłabym się, czy procedury, które są dawaneuczelni z zewnątrz funkcjonują dobrze. WspółpracaPKA z komisjami środowiskowymi i różnymi instytucjamibyłaby w tym kontekście bardzo ważna.Liczba kierunków do akredytacji nie jest wymysłemurzędniczym, tylko wymysłem środowiska akademickiego.Stawiam zatem pytanie: czy potrzebne sąrozporządzenia ministerialne? Czy nie wystarczyłybyjakieś wskaźniki lub wytyczne, miary, które byłybytworzone przez środowiska? To jest moim zdaniemnajwiększe wyzwanie.prof. Janina Jóźwiak – Im bardziej dokładnie określasię ramy funkcjonowania takiej instytucji, jakąjest szkoła wyższa, im dokładniejsze procedury sąprzeprowadzane przez instytucje kontrolujące, tymczęściej gra się toczy na niższym, bardziej szczegółowympoziomie. Ministerstwo narzuca i definiujewarunki uruchomienia kierunku, a później się okazuje,że uczelnia realizuje programy nieprzystające dotego kierunku na poziomie specjalności. Z mojegodoświadczenia, jako eksperta PKA, wiem, że podnazwą np. ekonomia czasami kryją się bardzo różne,dziwne rzeczy, które z ekonomią nie mają nic wspólnego.Uczelnia czy wydział ma uprawnienia, żebyuruchamiać taki kierunek, a co potem realizuje jakoprawdziwe kształcenie, to już nie jest kontrolowane.Inaczej mówiąc, te procedury zawodzą, prowokujądo tego, aby zachować się wbrew nim.prof. Ewa Konarzewska-Gubała – Od kilku latjestem związana ze środowiskową akredytacją. Pozatym na każdym kursie tłumaczę moim studentom,że: jeśli dokładasz ograniczenie, to nie licz, że znajdzieszlepsze rozwiązanie. Albo odwrotnie: usuwającograniczenie z pewnością nie pogorszysz rozwiązania.Mam więc powody, żeby myśleć w kierunkuderegulacji. Z drugiej strony wspólnie doszliśmy dotego wniosku, że się nie da działać bez procedur.Mam uzasadnienie teorio-decyzyjne. Jak powiedziałprofesor Chwirot, jeśli są dobre procedury, to jaknajbardziej są potrzebne. Powinny one poprzedzaćistotne decyzje, a z decyzjami jest tak, że zawsze mająwłaściciela. Studiując teorię decyzji, nie znajdzie siętakiego miejsca, o którym można powiedzieć, że jestw nim szansa na obiektywizację decyzji. Nie ma takiejmożliwości, nawet przy wykorzystaniu wszelkichinstrumentów naukowych i podejść różnych szkół.Decyzja jest zawsze czyjaś, w związku z tym musi byćw niej pewien element subiektywizmu. Najistotniejszejest, aby ten subiektywizm był weryfikowalny. Tutajjest miejsce właśnie na dobre procedury. Uważam też,że należałoby zwrócić uwagę na wątek podnoszącycharakter dynamiczny procedur. Dla mnie to jest istotne,już w myśleniu pragmatycznym. O ile te wartościetosowe byłyby czymś trwałym, to czy procedurynie powinny być tym elementem dynamizacji? Tutajmożna się odwołać do pewnych pomysłów, chociażbyz teorii zarządzania jakością, aby opracować procedurędo wypracowywania procedur. Weźmy pod uwagęklasyczne Koło Deminga, które podsuwa: zrób cośw kształcie eksperymentalnym, w małej skali, postawsobie cel (musi być cel tej procedury), wymyśl, jak goosiągnąć, zrealizuj w skali eksperymentalnej, sprawdź,czy to działa, wtedy wprowadź jako standardowerozwiązanie twojej działalności. Można tutaj podzielićsię rolami. Zmierzam ku atakowanej PKA i jej roli.Chodzi o to, żeby pewne rozwiązania przeprowadzaćeksperymentalnie, zanim zacznie się je stosować naszeroką skalę. Im więcej ograniczeń, tym mniejszeszanse na poprawę rozwiązania.prof. Janina Jóźwiak – To jest jednak apel przeciwkowdrażaniu procedur i – jak widzimy – napewno temat do debaty. Nie próbując podsumowaćtej dyskusji, chciałabym powiedzieć, że jest jakaśzasadnicza sprzeczność pomiędzy proceduramii wartościami. Z tego powodu, że procedury – jeślisensowne oczywiście – są po to, aby realizowaćpewien cel, czyli interes, w dobrym tego słowa znaczeniu.System wartości powinien być poza zbioremjakichkolwiek interesów do realizacji przez instytucje.Chociażby z tego punktu widzenia jest jakaś,powiedziałabym, subtelna współzależność pomiędzyprocedurami a wartościami, etosem akademickim,który łatwo naruszyć, nawet z pełnym przekonaniemsłuszności działań i z całą dobra wolą. Zatem jestto niezwykle delikatna kwestia w dyskusji, którąodbyliśmy. Zamykam panel i serdecznie dziękuję zawszystkie wypowiedzi.12 e-<strong>mentor</strong> nr 2 (24)


KATEDRA INFORMATYKIEKONOMICZNEJBIR2008The 7th International Conferenceon Perspectivesin Business Informatics Researchhttp://bir2008.univ.gda.plGdañsk, 25–26.09.200840 YEARS OF BUSINESS INFORMATICSAT UNIVERSITY OF GDAÑSKRelevant Topics of Interest:Business, people and systems interoperabilityBusiness and information systemsdevelopmentEmerging technologies and paradigmsKnowledge ManagementBusiness IntelligenceERP, CRM and SCM systemsMDA and SOA paradigmsUnified Modeling Language (UML)Data warehousingOntology modeling languages and toolse-business, e-governmente-learning and learning organisationsUser acceptance of new technologyProject management issuesContextualized evaluation of businessinformaticsCurriculum design and implementation issuesCase studies and experience reportsTeaching Business InformaticsImportant Dates:Paper submission deadline – June 1, 2008Notification of acceptance – July 15, 2008Camera-ready copies – September 7, 2008Conference Organizers:– Department of Business Informatics,University of Gdañsk– Polish Chapter of Associationof Information Systems (AIS)– Steering Committee of BIR ConferencesChairman of IPC: Prof. Stanis³aw Wrycza, Honorowy Ambasador Kongresów PolskichVice President of ISAHI - Information Systems Academic Heads InternationalKontakt:Uniwersytet Gdañski, Katedra Informatyki Ekonomicznej81-864 Sopot, ul. Piaskowa 9, tel. 58 523 14 00, fax 58 523 11 55kwiecień 2008 13e-mail: info@bir2008.univ.gda.pl


metody, formy i programy kształceniaPowinność w świeciecyfrowym– recenzjaPiotr BołtućW książce pt. Powinność w świecie cyfrowym. Etykakomputerowa w świetle współczesnej filozofii moralnejWojciech J. Bober 1 rozwija metodologię poszukiwaniaw obecnej problematyce etyczno-prawnej analogiiniezbędnych dla rozstrzygania nowo powstających problemówwynikłych z rozwoju komputeryzacji. Praca taprzynosi interesujący przegląd rozwiązań postulowanychw literaturze przedmiotu sprzed kilku lat. Dodany doksiążki błyskotliwy artykuł dotyczący zagadnienia własnościoprogramowania pokazuje, jak materiał teoretycznyprezentowany w książce może przydać się w rozważaniachetycznych. Należy ubolewać, że większość pracy nie jestnapisana w podobny sposób. Wydaje się, że książka opierasię na rozprawie doktorskiej 2 prowadzonej jeszcze w duchujakiejś innej epoki, usiłując w nadmiernym stopniuwykorzystywać metodę analizy logicznej i unikając etykinormatywnej na rzecz opisowej.Kradzież pocałunku a problematyka etykikomputerowejPrzyzwyczailiśmy się do używania terminu „kradzieżoprogramowania”, ale – jak słusznie zauważaW.J. Bober – w zasadzie kradzież wymaga pozbawieniawłaściciela jakiejś rzeczy, natomiast kradzież oprogramowaniana tym nie polega 3 . Kradzieżą ściśle biorącbyłoby zabranie dyskietki, na której znajduje się daneoprogramowanie, ale wówczas kradzież dotyczyłabydyskietki z oprogramowaniem, nie zaś programu,a przecież to właśnie kopiowanie software’u, a niekradzież jego nośników, jest zasadniczym problememmoralno-prawnym i jednym z ciekawszych zagadnieńnowo powstającej dziedziny, etyki komputerowej.A więc tzw. kradzież oprogramowania przypominaraczej metaforyczne użycie tego słowa w sformułowaniu„ukraść pocałunek” niż standardowe użycie tegoterminu. Podobnie tzw. „piractwo komputerowe” to– jak pisze Bober – czerpanie zysku z rozpowszechnianiaoprogramowania komputerowego, do którego nie ma sięprawa 4 , co jest formą paserstwa, a więc nielegalnejdziałalności handlowej (mało podobną do działalnościhistorycznych piratów). Kradzież oprogramowaniai piractwo komputerowe to więc terminy emotywne,ukute po to, ażeby wzbudzać w użytkowniku tychokreśleń potępienie czynów wynikłe z obecnychw języku negatywnych konotacji terminów „kradzież”i „piractwo”. Jednakże analogie między tymi procederamia kopiowaniem i rozpowszechnianiem oprogramowaniasą odległe; niezbędna jest więc analizapolegająca na poszukiwaniu bardziej bezpośrednichanalogii.Właśnie poszukiwanie analogii między znanymi jużw etyce problemami a sferą zagadnień przynoszonychprzez rozwój komputeryzacji, stanowi zasadniczyprzedmiot książki Bobera. Oto przykład tego rodzajupracy filozoficznej. Zadajmy sobie pytanie, czy każdekopiowanie software’u jest nielegalne. Na pierwszyrzut oka zdaje się, że może warto tu zastosowaćanalogię do kserowania książek (choć również ta kwestianie jest jasno rozwiązana). Otóż zwykle legalnejest przekopiowanie własnego oprogramowania nainną, posiadaną przez indywidualnego użytkownikamaszynę, podobnie jak przekopiowanie własnejksiążki do własnego użytku (np. żeby pisać notatkina kopii a oryginał pozostawić czysty). Ale co wtedy,gdy program został wykorzystany przez znajomegoi zwrócony nam? Jest to proceder zwykle nielegalny,mimo że podobny do pożyczenia znajomemu książki,czy odkurzacza, a nie chcemy przecież przez analogiędoprowadzić do sytuacji, w której pożyczanie książek,czy odkurzaczy, okaże się łamaniem zasady prawautorskich. A zatem cała analogia okazuje się byćw pewnej mierze zawodna.Dalsze problemy powstają, gdy zwrócimy uwagę, żeprogram źródłowy nie przypomina kodu wynikowego,dostępnego dla użytkownika. Czy zatem prawa autora1W.J. Bober, Powinność w świecie cyfrowym. Etyka komputerowa w świetle współczesnej filozofii moralnej, WydawnictwaAkademickie i Profesjonalne, Warszawa 2008.2Op. cit., s. 8.3Op. cit., s. 181–187.4Op. cit., s. 181.14 e-<strong>mentor</strong> nr 2 (24)


Powinność w świecie cyfrowymprogramu źródłowego rozciągają się na kod wynikowy,a jeśli tak, to czy rozciągają się one na wszelkienapisane przy pomocy tego kodu aplikacje? Kod jestsystemem formuł logicznych, czy więc jest rozsądneprywatyzowanie formuł logicznych, stanowiących częśćteorii matematycznej (tj. logiki formalnej)? Rozwiązanietego problemu zasadza się na fakcie, że kod niejest jedynie zespołem algorytmów, lecz algorytmamio szczególnej funkcji (tworzenie programu) pośrednio,jako program – odgrywającymi też ważne funkcje społeczne.Kwestia oparcia się na jednym z tych poziomówopisu, czy, jak twierdzi Bober, na jednej z tych analogii,przy rozwiązywaniu problematyki z etyki komputerowej,wymaga ścisłej analizy.Inne pytania etyczne wynikają z faktu, że niekiedyzakup oprogramowania jest bardziej podobny do nabyciaproduktu, a kiedy indziej usługi. Jeśli zakupujęprogram, czy grę komputerową (np. w supermarkecie),to mają one dominujące cechy produktu. To jest tak,jakbym kupił jedną kopię książki, nie zaś samą książkę,jako pierwotny produkt intelektualny, na podstawiektórego wyprodukowano wszystkie jej kopie. Alejeżeli zlecam komuś napisanie specjalistycznegoprogramu, wydaje się to stanowić usługę wykonanąw całości na zamówienie, zatem, gdy płacę wszystkiekoszty poniesione przez firmę, to czy nie powinienem miećprawa robić z oprogramowaniem wszystkiego, czego tylkozapragnę, włącznie z odsprzedaniem go? 5 Bober zwracauwagę, że nie zawsze w takich sytuacjach wystarczającejest odwołanie się do ustaleń licencji. Wprowadzateż nas w problematykę etyki open source, która opierasię na filozoficznym założeniu, że sieć i software todobro wspólne i wymaga powszechnej dostępnościoprogramowania, w tym kodu, aczkolwiek autorkoncentruje się niestety na jej wczesnej fazie tzw.etyki hakerskiej. Tyle o dodatku do książki Bobera,stanowiącym jej zdecydowanie najlepszą część.O ornitologii i filozofii moralnejIstotne w omawianej książce wydaje się kompetentneodwoływanie się do szeroko rozumianejpolskiej filozofii moralnej, od M. Ossowskiej aż doZ. Baumana, a nawet do autorów nieco zapomnianych,jak A. Podgórecki (acz w kontekście dyskusjio cybernetyce warto było jeszcze odnieść się doH. Greniewskiego). Na szczególną uwagę zasługujedyskusja z L. Kołakowskim dotycząca wpływu rozwojumożliwości technicznych na oceny moralne 6 .Kontrowersyjne wydaje się natomiast stawianieprac H. Jankowskiego w jednym rzędzie z dziełamiluminarzy polskiej filozofii moralnej. Wpływ tegoautora na pracę W.J Bobera przejawia się nie tylkow przewadze etyki opisowej nad normatywną 7 ,ale też w zawężonej definicji etyki profesjonalnej.Bober koncentruje się na omówieniu stanowiskprezentowanych w etyce komputerowej oraz analiziepojęciowej dotyczącej takich zagadnień, jak definicjakomputera (przynosząca ciekawe i mało znane faktyhistoryczne) lub problem nowości a stosowanie normmoralnych.Wczorajsze pieczywoMankamentem książki W.J. Bobera jest to, że jestona nieco zdezaktualizwana 8 . Książka omawia stanetyki komputerowej z jej najwcześniejszego okresu,wyznaczonego przez prace Jamesa Moora (1985 r.)i Debory Johnson (1985 r.) oraz dyskusje z lat 90., natomiastjest zadziwiające, że brak w niej tzw. modeluRPT 9 , który stał się pierwszym pełnym opracowaniemetyki komputerowej (co więcej, model ten odpowiadana wiele pytań, zadanych przez Bobera). Brak jesttakże najnowszych propozycji przedstawionych przezautorów takich, jak A. Clarke, D. Chalmers i L. Floridi,których prace nawet nie znalazły się w indeksie.Odniesienia takie przydałyby się w rozdziałach 4. i 5.,omawiających problem nowości norm moralnych i zagadnienie,czy etyka komputerowa ma charakter wyjątkowy,bowiem właśnie na te pytania od roku 1998dają odpowiedź prace Floridiego 10 (a także Clarke’a)stanowiące dzisiaj dwie najważniejsze teorie w etycekomputerowej (Floridi) lub filozofii cyberprzestrzeni(Clarke).5Op. cit., s. 185.6Op. cit., s. 137.7H. Jankowski był zdecydowanym zwolennikiem raczej etyki opisowej, niż normatywnej, oddzielającym postawyetyka, jako badacza myśli etycznej i jako działacza moralnego; filozof ten miał natomiast poczucie humoru – gdypytano go, jak łączy zajmowanie się teorią moralną z funkcjonowaniem w KC PZPR, odpowiadał niekiedy, odwołującsię do powiedzenia znanego z filozofii brytyjskiej, że ornitolog nie musi fruwać.8Co wystarczy sprawdzić w bibliografii (por. też s. 61, 117). Omówiony powyżej, krótki dodatek nt. własności oprogramowania,stanowiący najbardziej praktyczną i stosunkowo aktualną część tej pracy przedstawia stan rzeczy narok 2003, a więc na pięć lat przed rokiem wydania, co w dziedzinie takiej jak ruch open source stanowi długi okres.Niestety większość książki przedstawia stan badań do roku 1998. Nie obejmuje ona ostatnich dziesięciu lat w rozwojuetyki komputerowej, a jest to okres szczególnie ważny w tej nowej i dynamicznie rozwijającej się dyscyplinie – odnosisię wrażenie, że jest to jakieś wznowienie sprzed 8 czy 10 lat, które z jakiegoś powodu nie zostało uaktualnione;z prac nowszych zostały uwzględnione niemal wyłącznie artykuły autora.9Model RPT, informacja jako resource, product, target (zasób, produkt, cel) dominującego ok. roku 2000, ale dzisiajczęsto uznawanego za zbyt wąski i przestarzały. Model ten rozwinęli (w tak zwanej debacie unikatowej) – Tavani(2002 r.) Floridi i Sanders (2002 r.). Bober odwołuje się w tym kontekście tylko do wczesnych dla tego nurtu opracowańManera (1996 r.), dyskutując je jednak, jak gdyby stanowiły ostatni krzyk mody.10L. Floridi, Philosophy and Computing: An Introduction, Londyn, Nowy Jork: Routledge, 1999.Także Understanding Information Ethics, APA Newsletter on Computers and Philosophy 2007, tom 7 nr 1; por.http://www.apaonline.org/apa/publications/newsletters/v07n1/Computers/04.aspkwiecień 2008 15


metody, formy i programy kształceniaEtyka profesjonalna czy nieprofesjonalnaUtożsamianie etyki zawodowej z etyką jedyniewolnych zawodów (czyli profesji) jest już dzisiaj podejściemnader kontrowersyjnym. W.J. Bober twierdzinatomiast, iż istnieje zgoda na to, że nie wszystkiezawody zasługują na tworzenie dla nich etyki zawodowej.Powołuje się on na H. Jankowskiego, przytaczającwarunki niezbędne dla uprawomocnienia etyki danegozawodu, jakimi są: ranga wartości, które dotycządziałania przedstawicieli danego zawodu, autonomicznośćdecyzji, prestiż społeczny – wysokie kwalifikacje wymaganedo wykonywania zawodu oraz odpowiedzialność społeczna11 . Bober akceptuje wszystkie te warunki, chociażpodkreśla ich różne znaczenie.Jednakże etyka wolnych profesji jest dzisiaj tylkocząstką etyki zawodowej. Bober odróżnia osąd lekarzaczy sędziego od osądu elektryka decydującego o grubościprzewodu wybranego do konkretnego zastosowania 12 , alejest to rozróżnienie sztuczne 13 . Etyka elektryka jestczęścią etyki inżynierskiej, podobnie jak etyka kasjerkijest częścią etyki bankowości, a etyka pielęgniarskajest częścią etyki medycznej, mimo że elektryk, kasjerczy pielęgniarka nie są wolnymi zawodami. Tymniemniej pielęgniarki, jak również przedstawicielkirecepcjonistek, z reguły zasiadają w USA w zespołachds. etyki medycznej i przestrzeganie takowej jest odnich wymagane (co jest niezbędne, aby uniknąć naprzykład sytuacji narażania na śmierć lub powikłaniaosób, nie przyjętych przez recepcjonistów do szpitala)14 . Inaczej miała się sprawa w czasach dawniejszych,gdy recepcjonistka w prywatnej klinice informowałalekarza o zgłoszeniu się każdego pacjenta, dzisiajjednak obowiązki są znacznie bardziej rozdzielone,rodzielona jest też odpowiedzialność etyczna i profesjonalna.Podobnie w nowoczesnej fabryce każdyrobotnik ma obowiązek zatrzymania taśmy produkcyjnej,jeżeli widzi produkt z niebezpiecznym defektem,podczas gdy dawniej uprawnień takich nie miał nawetmistrz a tylko dyżurny inżynier, i korzystanie z tegouprawnienia jest obowiązkiem moralnym każdegopracownika, podobnie jak w pewnych sytuacjachobowiązkiem każdego pracownika jest whistleblowing(informowanie władz o niebezpiecznych nieprawidłowościachw danej firmie lub instytucji). Etykazawodowa dotyczy też, bezsprzecznie, pracownikówadministracji publicznej, policji, wojska, bibliotekarzy-15i wielu innych zawodów, które nie stanowią profesji.Ponadto, jak słusznie zauważa Bober, także lekarze,architekci, ludzie biznesu i prawnicy pracują dzisiajzwykle w wielkich firmach, tworząc zespoły – niespełniają zatem definicji autonomicznego członkawolnego zawodu 16 . Czyż sytuacja taka miałaby uwalniaćich od odpowiedzialności etyki zawodowej?Problem ten ma znaczenie w rozważaniach Boberanad etyką komputerową, twierdzi on bowiem, że oile programiści mają pewne cechy wolnego zawodu,a więc także można przypisać im etykę zawodową, otyle praca wielu innych komputerowców profesją niejest, a więc etyka zawodowa się do nich nie odnosi.Słuszniejsze byłoby potraktowanie etyki komputerowejjako specyficznego działu etyki inżynierskiej,dotyczącej w mniejszym lub większym zakresiewszystkich uczestników procesu tworzenia produktu(artefaktu) – od zaprojektowania, poprzez fazy wykonawcze,aż do niezbędnego nadzoru nad warunkamibezpiecznego użytkowania.Wartościowe ukradkowe rozważaniaEtyce komputerowej Bober poświęcił ostatnie30 stron książki, z czego większość 17 dotyczy meta--etycznego zagadnienia, w jakim stopniu normatywneproblemy etyki komputerowej wymagają odrębnegoi wyjątkowego potraktowania w filozofii moralnej.Jedynie krótki rozdział szósty 18 rozważa bardziejbezpośrednio kwestie etyki komputerowej. Autorzaznacza jednak, że jego rozważania można (...) trak-11Bober rozważa dodanie do tej listy następujących warunków rozważanych w literaturze przedmiotu: „mentalnycharakter pracy, wysokie zarobki, istnienie organizacji profesjonalnej oraz wymaganie koncesji”.12W.J. Bober, op. cit., s. 91.13Tak ostry podział zdaje się wynikać z rozróżnienia etyki stosowanej (applied ethics) i etyki zawodowej (professionalethics), który Bober wprowadza krytykując podejście D. Johnson; w USA termin professional ethics jest w coraz mniejszymstopniu łączony z pojęciem profesji jako wolnego zawodu, a w coraz większym z szerzej definiowanym pojęciemprofesjonalizmu. Por. op. cit., s. 106.14Bober próbuje ośmieszyć podobne podejście pisząc: włączalibyśmy w zakres tego pojęcia jednocześnie lekarzy, pielęgniarki,felczerów, salowe, laborantów, szpitalne sprzątaczki i farmaceutów, a może także kierowców karetek pogotowia (s. 94). Otóżnowoczesna etyka medyczna (w przeciwieństwie do wąskiej etyki lekarskiej czy pielęgniarskiej) dotyczy właśnie tychwszystkich zawodów, gdyż ich wspólną cechą jest bezpośredni wływ na stan zdrowia pacjenta.15Tu znowu Bober próbuje uznać, że etyka bibliotekarska nie jest etyką zawodową, co jest nieprawdziwe. Pokazała tosytuacja wprowadzonych kilka lat temu w USA przepisów, wymagających przekazywania informacji o wypożyczanychprzez dane osoby książkach pracownikom służb bezpieczeństwa, bez nakazu sądowego. Środowisko bibliotekarskieuznało to za nieetyczne i podjęło decyzję o nieprzechowywaniu tych informacji; niezależnie od naszego podejściado przedmiotu sporu etycznego nie ulega wątpliwości, że w grę wchodzą zasady etyki profesjonalnej. Nie chodzi tujedynie o fakt posiadania przez bibliotekarzy swojego kodu etycznego (http://www.ala.org/ala/oif/statementspols/codeofethics/codeethics.cfm[30.03.2008]), ale także o korzystanie z niego w obronie prywatności użytkowników. Por.W.J. Bober, s. 101, gdzie autor twierdzi, że taka etyka jest zbyteczna.16Op. cit., s. 97–99.17Op. cit., s. 152–170.18Op. cit., s. 171–177.16 e-<strong>mentor</strong> nr 2 (24)


Powinność w świecie cyfrowymtować nie jako propozycję normatywną, ale jako namysłnad już dokonanymi propozycjami normatywnymi 19 – należyubolewać nad takim zakrojeniem tego rodziałui nieufnością wobec etyki normatywnej.Na uwagę zasługuje stworzona przez autora mapapowinności w cyberprzestrzeni – pokazuje ona modelrozumowania na tematy szeroko rozumianej etykikomputerowej 20 . Niestety, zamiast szerszego opisutego interesującego modelu, autor stwierdza, że niema tu oczywiście miejsca na szczegółowe omawianie kwestiirozgraniczenia różnych powinności uwidocznionychw tym modelu 21 . Nie ma również czasu na szczegółoweomówienie samego modelu, skoro autor poświęcamu niespełna dwie strony. Po spędzeniu masy czasu narozważaniu innych zagadnień, brak uwagi poświęconejnajważniejszemu osiągnięciu książki należy uznaćza niefortunny.PodsumowanieWedług Bobera zachowanie w książce abstrakcyjnychrozważań filozoficznych i etycznych może sprawiaćpewną trudność Czytelnikowi mniej biegłemu w subtelnościachfilozoficznych. A zatem ukazanie szerszego tła filozoficznegoi etycznego sporów prowadzonych w dziedzinieetyki komputerowej jest korzystne dla zrozumienia samejproblematyki i pokazania możliwych rozstrzygnięć 22 . Autortej recenzji, akurat nie należąc do „mniej biegłychfilozoficznie”, ma inną wątpliwość – czy mianowicieowo tło filozoficzne nie jest ukazane w niniejszejksiążce operując metodologią analizy logicznej w styluautorów z połowy XX wieku (takich jak C.D. Broad),zarzuconą w głównym nurcie filozofii analitycznej.Nie jestem też pewien, czy autor dotrzymał obietnicy,złożonej we wstępie, iż w książce podjął się nowegoopracowania tej tematyki, ponieważ nie jest to publikacjauaktualniona 23 . Jednakże Dodatek do książki,który został omówiony na początku, pokazuje, żejakiekolwiek mogą być powody wymienionych tutajniedociągnięć tej publikacji, powodem takim nie jestbrak zdolności filozoficznych jej autora, ani brakz jego strony umiejętności analizy konkretnych problemówetyki komputerowej. Należy więc oczekiwaći życzyć autorowi nowych publikacji.PolecamyJan A. FazlagićZarządzanie wiedzą w szkoleWydawnictwa CODNWarszawa 2007Nakładem Wydawnictw CentralnegoOśrodka Doskonalenia Nauczycieli,w ramach serii Zarządzanie szkołą,ukazała się publikacja J.A. FazlagiciaZarządzanie wiedzą w szkole. Autorstwierdza, iż polskie szkoły powinnysystematycznie zarządzać wiedzą,gdyż jest ona zasobem decydującymo sukcesie kraju, a dobre zarządzanieszkołą przekłada się na dobrezarządzanie wiedzą w oświacie.Książka rozpoczyna się od scharakteryzowania szkołyopartej na wiedzy oraz wskazania na potrzebę zarządzaniawiedzą w polskiej oświacie (Nie wszystkie szkoły,które nie zarządzają wiedzą, są z natury złe, lecz większość źlezarządzanych szkół nie zarządzani wiedzą.). Autor omawiarodzaje wiedzy, jakimi zarządza się w oświacie oraz wskazujena możliwości jej tworzenia przez wykorzystanieinnowacyjności. Radzi też, jak pobudzać kreatywnośćoraz ostrzega przed schematami myślowymi występującymiw szkołach.Sukces szkoły nie jest możliwy bez dobrego przywództwa.Dlatego jeden z rozdziałów został poświęcony rolidyrektora w szkole opartej na wiedzy. Autor wyjaśniaw nim, czym różni się wiedza od mądrości, omawiakompetencje efektywnego dyrektora oraz radzi, jak kreowaćswój wizerunek. Niezwykle istotnym czynnikiemdecydującym o wynikach szkoły jest również jej kulturaorganizacyjna oraz system wewnętrznych wartości.W książce przedstawiono rodzaje kultur organizacyjnychoraz sposoby wpływania na ich zmianę w kierunku szkołyopartej na wiedzy, w której stale obecne są zbiorowei indywidualne modele uczenia. Ostatni rozdział stanowipodsumowanie omawianych zagadnień i prezentujestrategie zarządzania wiedzą.Książka będzie z pewnością niezwykle przydatna i inspirującadla osób związanych z oświatą, w szczególnościdyrektorów szkół, nauczycieli, wizytatorów oraz pracownikówośrodków doskonalenia nauczycieli. Publikacjadostępna jest na stronie: http://www.nike.codn.edu.plPodziel się swoją wiedzą!19Op. cit., s. 171.20Op. cit., s. 176. Ciekawy jest zwłaszcza prawy dolnyróg zamieszczonego wykresu, przedstawiający proponowanypraktyczny model rozumowania w kwestiachetyki komputerowej.21Op. cit., s. 177.22Op. cit., s. 9.23Jest to sytuacja osobliwa, gdyż nawet pobieżneposzukiwania artykułów i abstraktów w interneciepozwoliłyby przynajmniej w minimalnym stopniu nauaktualnienie książki.W ostatnich miesiącach możemy obserwować corazintensywniejszy rozwój platform umożliwiającychużytkownikom internetu z różnych krajów dzielenie sięwiedzą i doświadczeniami. Do najbardziej popularnychmożemy zaliczyć: Videolectures.net, Slideshare.net,Skillsfeed.com. Nagły rozkwit tego typu serwisów toefekt nie tylko rozpowszechniania się technologii Web2.0, ale przede wszystkim dowód zmian społecznychw kierunku otwartości, egalitaryzmu, potrzeby dzieleniasię wiedzą, wzrastającej świadomości technologicznejspołeczeństwa. Zachęcamy więc, aby dołączyć do globalnejspołeczności!kwiecień 2008 17


metody, formy i programy kształceniaDobre praktyki corporategovernanceŚwiatowe tendencje a polskiedoświadczeniaMaria AluchnaNadzór korporacyjny 1 (corporate governance) jest niezwykleinteresującym zagadnieniem systemu ekonomicznegokażdego państwa czy nawet regionu. Współcześnie obserwujesię jego rosnące znaczenie ze względu na potrzebyrynku 2 – spółki zainteresowane są pozyskiwaniem kapitałuna drodze do ekspansji na globalny rynek, inwestorzyoczekują unifikacji warunków działania i zapewnienia jaknajwiększej mobilności kapitału, a poszczególne państwaz jednej strony dążą do rozwoju rynków kapitałowych dlasfinansowania systemów emerytalnych starzejących się społeczeństw,z drugiej zaś chcą stworzyć atrakcyjne warunkiinwestorom dla zapewnienia stałego dopływu kapitału.W efekcie zarówno państwa, jak i poszczególne spółkipodejmują wiele inicjatyw z zakresu corporate governance,mających na celu poprawę standardów funkcjonowania.Nadzór korporacyjny (corporate governance) stanowiokreśloną strukturę kontrolną, której głównym celemjest zapewnienie ochrony inwestorów i realizacjaprzez nich odpowiedniej stopy zwrotu z inwestycjioraz zbliżanie sprzecznych z definicji interesówakcjonariuszy i menedżerów 3 . Realizacja tych założeńodbywa się poprzez stworzenie określonychmechanizmów, instytucji oraz standardów postępowaniana rynku, np.: zgromadzenie akcjonariuszy,rada nadzorcza 4 i działające w jej ramach komitety(audytu, nominacji, wynagrodzenia), motywujące wynagrodzeniemenedżerskie, monitoring realizowanyprzez banki, a także wiele mechanizmów rynkowych,takich jak: rynek kapitałowy, rynek kontroli korporacji(czyli rynek przejęć), rynek talentów menedżerskich 5 .Dla sprawnego funkcjonowania tych instytucji i mechanizmóworaz realnego wykonywania przez niefunkcji kontrolnej niezbędny jest efektywny system 6zapewniający przestrzeganie prawa. Dodatkowo,do zapisów twardego prawa (którego przepisy sąobowiązkowe) włączono także reguły i standardy takzwanego prawa miękkiego, obejmującego rekomendacjei zbiory dobrych praktyk gospodarczych 7 . Ichprzestrzeganie opiera się na zasadzie dobrowolności,jednakże autorzy tych inicjatyw zakładają, iż spółkombędzie zależało na budowaniu swojej reputacji i nautrzymywaniu dobrych relacji z inwestorami.Literatura z zakresu nadzoru korporacyjnegozawiera wiele opracowań dotyczących struktury własności,funkcjonowania rady (nadzorczej, dyrektorów),motywacyjnej funkcji wynagrodzenia menedżerskiego,roli banków, przejrzystości i efektywności systemuprawnego, funkcjonowania rynku kapitałowego czywreszcie międzynarodowych analiz porównawczych.W ostatnich latach notuje się także wiele analiz poświęconychzestawom dobrych praktyk i wpływowitych rekomendacji na praktykę corporate governance.Niniejsze opracowanie także wpisuje się w ten nurti omawia rolę dobrych praktyk w polskim systemienadzoru korporacyjnego. Artykuł przyjmuje następu-1W niniejszym artykule użyto terminu „nadzór korporacyjny” jako tłumaczenie anglojęzycznego pojęcia corporategoveranance. Należy jednak zwrócić uwagę, iż w polskiej literaturze często używa się także terminów „ład korporacyjny”lub rzadziej „władanie korporacyjne” czy „władztwo korporacyjne”.2M. Becht, A. Röell, Blockholdings in Europe: An international comparison, „European Economic Review” 1999, t. 43,s. 1049–1056.3R.A. Monks, N. Minow, Corporate governance, Blackwell Business, 2004.4Rada nadzorcza funkcjonuje w krajach, w których występuje model dwupoziomowy (two tier system, dual system)obejmujący także zarząd (Niemcy, Austria, Polska). Mandaty obu organów nie mogą się pokrywać. Na świecie dominująjednak rozwiązania modelu jednopoziomowego (one tier system, monosystem), w którym działa jedynie radadyrektorów obejmująca zarówno członków z firmy (inside directors) pełniących funkcje zarządzające (executives), jaki spoza firmy (outsider directors, non-executive directors), którzy mogą być powiązani ze spółką (affiliated directors) lubcałkowicie niezależni (independent directors).5F.W. Weston, J.A. Siu, B.A. Johnson, Takeovers, restructuring and corporate governance, Upper Saddle River, Nowy Jork2001.6R. La Porta, F. Lopez-de-Silanes, A. Shleifer, Investor protection and corporate governance, „Journal of Financial Economics”2000, tom 58, s. 3–27.7C. Mallin, Corporate governance, Oxford University Press, Oxford 2004.18 e-<strong>mentor</strong> nr 2 (24)


Dobre praktyki corporate governance...jącą strukturę – w pierwszym punkcie przedstawionopokrótce historię inicjatywy dobrych praktyk, którejpoczątki sięgają roku 1992, oraz główne obszaryformułowanych rekomendacji. Punkt drugi omawiaideę dobrych praktyk realizowaną na gruncie polskim,w tym dwa dokumenty przygotowane przez KomitetDobrych Praktyk Giełdy Papierów Wartościowychw Warszawie z 2002 i 2005 roku. W trzecim punkcieprzybliżono najnowszy taki dokument, czyli Dobrepraktyki spółek notowanych na GPW z 2007 r., któryobowiązuje od stycznia tego roku.Dobre praktyki na świeciePierwszym dokumentem dobrych praktyk jestbrytyjski Cadbury Report z grudnia 1992 roku, któregonazwa pochodzi od nazwiska przewodniczącego komisjiopracowującej zbiór zasad corporate governanceA. Cadbury’ego 8 . Zapis ten stanowił odpowiedź naskandale i upadki firm oraz brak zaufania do sprawozdańfinansowych przygotowywanych przezspółki publiczne 9 . Cadbury Report odnosił się przedewszystkim do funkcjonowania rady, jej składu, tworzeniakomitetów, udziału członków niezależnychoraz kwestii ujawniania informacji. Dokument tenwprowadził zasadę comply or explain, powielaną przezkolejne zbiory dobrych praktyk formułowane w innychkrajach, według której spółki działają zgodniez zasadami, a jeśli nie przestrzegają jakieś reguły,to muszą o tym poinformować uczestników rynkui podać powód takiego stanu rzeczy.Analiza popularności dokumentów dobrych praktykwskazuje na rosnące zainteresowanie tą inicjatywą,w szczególności od drugiej połowy lat 90. Obecniekażdy kraj (od USA 10 , przez Europę 11 , aż po Azję)i każda giełda posiada zestaw takich zasad, które sąna bieżąco modyfikowane i dopasowywane do zmieniającychsię wyzwań rynkowych (stąd pojawia się takwiele tych dokumentów). Zestawy dobrych praktykprzygotowywane są także na forum międzynarodowym– na przykład Banku Światowego i OECD (Principlesof Corporate Governance 12 ), Unii Europejskiej (plandziałania: Modernizacja prawa spółek i wzmocnienie ŁaduKorporacyjnego UE oraz dwie rekomendacje KomisjiEuropejskiej dotyczące wynagrodzenia członków radi zarządów oraz pozycji i roli niezależnych członkówrady z 15 lutego 2005 roku) – przez stowarzyszeniai instytuty nadzoru korporacyjnego (np. Global CorporateGovernance Forum, International Corporate GovernanceNetwork). Dodatkowo, dokumenty dobrychpraktyk formułują także większe spółki (np. Allianz)czy fundusze emerytalne (np. CalPERS 13 , TIAA-CREFF)i inwestycyjne (np. ING). Posiadanie zestawu zasadjest pozytywnie postrzegane przez rynek i świadczyo istnieniu przemyślanej polityki w zakresie nadzorukorporacyjnego, co jawi się jako szczególnie ważnew przypadku funduszy inwestycyjnych i emerytalnych14 . Warto dodać, iż w większości krajów dobrepraktyki są formułowane w drodze szerokich konsultacjiśrodowiskowych (inwestorzy, regulatorzy, spółki),w których głos spółek jest bardzo istotny. Taki procesma zapewnić zrozumienie potrzeby tych zapisów,legitymizację przez środowisko, a w późniejszymczasie ich przestrzeganie 15 . Wiadomo bowiem, iżbez zgody spółek regulacje te nie miałyby żadnegosensu. Z tego punktu widzenia rekomendacje dobrychpraktyk są przykładem samoregulacji rynku, a spółkisame ustalają normy na nim obowiązujące, by wyeliminowaćtych, którzy rynek niszczą lub zaniżająstandardy działania.Choć Cadbury Report koncentrował się główniena funkcjonowaniu rady, z czasem dobre praktykizaczęły obejmować coraz to szersze obszary dotyczącedziałania spółek w sferze corporate governance.Współcześnie liczebność zestawów rekomendacjicorporate governance (które dodatkowo uwzględniająnarodową specyfikę rynku kapitałowego, kultury,praktyki gospodarczej czy obowiązującego prawa)jest przytłaczająca. Należy jednak podkreślić, iż mimowielu różnic, dobre praktyki formułowane na całym8Jest to dość powszechna reguła – inne brytyjskie raporty noszą nazwy Greenbury Report (1995), Hampel Report (1998),Turnbull Report (1999), Myners Report (2001), Higgs Review (2003), Smith Review, wyjątek stanowi Combined Code (1998i 2003), niemiecki zestaw dobrych praktyk określa się jako Cromme Report, a francuski Vienot Report.9C. Mallin, op. cit.10W Stanach Zjednoczonych notuje się relatywnie mniejsze znaczenie dokumentów dobrych praktyk ze względu nawysoką ochronę praw inwestorów, silnie rozwinięty system dochodzenia przez inwestorów swoich praw przed sądem(shareholder litigation) i efektywność systemu prawnego. Ponadto, główny ciężar wprowadzania nowych standardóww zakresie przejrzystości, odpowiedzialności kadry menedżerskiej, kwestii współpracy z audytorem oraz regułachrachunkowości spoczywa na akcie twardego prawa Sarbanes-Oxley Act z 2002 roku, wdrożonego po skandalachkorporacyjnych.11K. Hopt, G.J. Garrido, J. Rickford, G. Rossi, J.S. Christensen, S. Joëlle, J. Winter, European Corporate Governance incompany law and codes, European Corporate Governance Conference, Haga 2004.12OECD, Principles of corporate governance, 2004, http://www.oecd.org/dataoecd/32/18/31557724.pdf [28.03.2008].13Więcej informacji, w tym raporty i zestawy dobrych praktyk na www.calpers.ca.gov.14Warto nadmienić, iż inicjatywa dobrych praktyk corporate governance przyczyniła się do rozwoju zasad inwestowaniawedług społecznej odpowiedzialności biznesu – niektóre fundusze inwestycyjne i emerytalne czy nawetkraje (np. muzułmańska Malezja) formułują bardziej restrykcyjne standardy i łączą współczesne wyzwania biznesuz własnym dziedzictwem religijnym i kulturowym. Idą bowiem dalej, rezygnując z inwestycji dochodowych, leczzwiązanych z przemysłem tytoniowym, spirytusowym, zbrojeniowym czy w spółkach naruszających prawa człowiekalub prawa pracownicze.15Por. raport w Niemczech lub Wielkiej Brytanii.kwiecień 2008 19


metody, formy i programy kształceniaświecie odnoszą się do tych samych aspektów (por.zasady OECD 16 ):! preambuła lub klauzula wstępna – podkreślająca,iż tworzenie wartości dla akcjonariuszyjest podstawowym celem działania spółki, choćnaturalnie spółka w swoim funkcjonowaniupowinna brać pod uwagę także prawa interesariuszy(np. pracowników, kredytodawców);! zapewnienie praw akcjonariuszy – w tym przedewszystkim prawa do informacji, uczestnictwaw WZA (informacje wysłane odpowiedniowcześniej, WZA w wygodnym miejscu i czasie),wpływania na losy spółki (głosowanie na członkówdo rady), prawa do dywidendy;! równe traktowanie akcjonariuszy – zakładające,że spółka w żaden sposób nie może dyskryminowaćposiadaczy tym samych serii akcji,co najczęściej odnosi się do ochrony prawakcjonariuszy mniejszościowych (dywidenda,informacja, przedstawiciel w radzie). Częstokwestia ta odnosi się także do realizacji zasady„jedna akcja – jeden głos”, czyli eliminacji akcjiuprzywilejowanych. Jednak zarówno dobrepraktyki w krajach Europy kontynentalnej 17 ,jak i zasady OECD nie uznają stosowania akcjiuprzywilejowanych za łamanie dobrych praktyk;! udział interesariuszy w nadzorze korporacyjnym– oznacza współpracę spółki i uwzględnianieprzez nią interesów różnych grup (banki,dostawcy, klienci, społeczności lokalne). Wartojednak zaznaczyć, iż rzeczywisty udział tychgrup w procesie podejmowania decyzji czyrealna obecność ich przedstawicieli w radzienależy do wyjątków, a główne działanie w tymobszarze dotyczy inicjatyw CSR i wyczerpującychraportów z funkcjonowania firmy;! przejrzystość – dotycząca prowadzenia jawneji szerokiej polityki informacyjnej. Zgodnie z dobrymipraktykami, spółki powinny informowaćo strukturze własności, sytuacji finansowej(raporty), składzie i strukturze organów spółki(imię, nazwisko, życiorys), wynagrodzeniukadry menedżerskiej (struktura i wysokość),o pożyczkach udzielonych członkom zarząduprzez spółkę, transakcjach spółki i podmiotówzależnych z członkami zarządu, procedurachwyboru i rotacji biegłego rewidenta badającegosprawozdania finansowe spółki. Wszystkiete informacje powinny być łatwo dostępne zapośrednictwem strony relacji inwestorskich,najlepiej w kilku językach, w tym po angielsku.Dodatkowo, na stronie powinny być takżezamieszczone dokumenty korporacyjne, takiejak: regulamin pracy walnego zgromadzeniaakcjonariuszy, zarządu i rady, prospekt emisyjny,informacje nt. programów motywacyjnychdla menedżerów i pracowników, oświadczeniespółki o przestrzeganiu zasad dobrych praktyk;! rekomendacje rady (nadzorczej, dyrektorów)– dotyczą sformułowania i publikowania regulaminurady, przygotowania procedur głosowania,zasad współpracy, w tym głównie wymianyinformacji z zarządem i menedżerami orazpodejmowania decyzji, opracowania proceduryoceny pracy zarządu oraz samej rady, określeniastruktury rady (np. liczba mandatów dlainteresariuszy, udział członków niezależnychwraz ze szczegółową definicją niezależności)czy wspomnianej wcześniej procedury wyborui rotacji biegłego rewidenta badającego sprawozdaniafinansowe spółki;! pozostałe rekomendacje z zestawu dobrychpraktyk – dotyczą relacji z podmiotami trzecimi(np. mediami) oraz zasad postępowania przytransakcjach przejęć i fuzji (ochrona akcjonariuszy,relacje wymiany akcji).Ostatnią kwestią dotyczącą dobrych praktyk, którawymaga komentarza, jest pytanie o ich efektywność.Ze względu na dowolność w przestrzeganiu zasad,na które spółki przecież wcale nie muszą się godzić,a co więcej, mogą wspólnie bojkotować cały dokumentalbo najbardziej niewygodne rekomendacje 18 .Ogólnoświatowa praktyka pokazuje jednak, iż spółkibędące często także współautorami dobrych praktyk,w znakomitej większości stosują sformułowane zasady.U podstaw tego działania leży przeświadczenie(potwierdzone wieloma badaniami empirycznymi),iż w długim okresie spółki stosujące się do opracowanychzasad są lepiej postrzegane przez ryneki traktowane jako bezpieczniejsze. Warto dodać,iż reputacja na rynku kapitałowym ma kolosalne16OECD, op. cit.17Kraje Europy kontynentalnej nie traktują akcji uprzywilejowanych jako łamania dobrych praktyk corporate governancez uwagi na dominację skoncentrowanej struktury własności – w wielu europejskich spółkach kontrola pozostajew rękach rodziny lub założyciela, co jest możliwe głównie poprzez stosowanie akcji uprzywilejowanych. Dziękiakcjom uprzywilejowanym zachowują oni silną pozycję, a jednocześnie mogą pozyskiwać kapitał potrzebny na rozwójprzedsiębiorstwa. W Wielkiej Brytanii i Stanach Zjednoczonych takie praktyki są krytykowane ze względu naz definicji słabszą pozycję posiadaczy akcji zwykłych, mimo takiego samego lub czasem wyższego zaangażowaniakapitałowego w spółkę.18Problem ten zaobserwowano na giełdzie niemieckiej, gdzie spółki bardzo niechętnie udzielały informacji o wysokościi strukturze wynagrodzeń swoich członków zarządu i to pomimo dobrych praktyk rekomendujących przejrzystośćw tym obszarze. Spółki podawały jedynie wysokość dla całego zarządu, bez uwzględnienia struktury płac. Wedługszacunków około 5 proc. spółek notowanych na giełdzie we Frankfurcie stosowało niniejszą zasadę. W efekcie częśćdobrowolnych zapisów dobrych praktyk objęto statusem twardego prawa i do tych zapisów wprowadzono właśniezapisy ujawniania wysokości i struktury indywidualnych wynagrodzeń członków zarządu.20 e-<strong>mentor</strong> nr 2 (24)


Dobre praktyki corporate governance...znaczenie. W efekcie spółki takie są oceniane jakote, które bardziej chronią interesy inwestorów, notująniższe ryzyko i mogą przynieść większą wartość akcjonariuszom.Według badań prowadzonych w wielukrajach (USA, rynki europejskie, Korea Południowa),spółki przestrzegające dobrych praktyk notują lepszewyniki i zwiększają wartość dla akcjonariuszy 19 .Dobre praktyki w PolsceHistoria ruchu dobrych praktyk w Polsce sięga2001 roku, kiedy rozpoczął działalność powstały naGiełdzie Papierów Wartościowych w Warszawie KomitetDobrych Praktyk. W tym samym roku zaczęłotakże działać Polskie Forum Corporate Governanceprzy Instytucie Badań nad Gospodarką Rynkowąw Gdańsku. Oba ośrodki prowadziły liczne dyskusje,spotkania i konsultacje, których wynikiem były dwadokumenty dobrych praktyk – Dobre praktyki w spółkachpublicznych 2002 20 autorstwa Komitetu DobrychPraktyk GPW oraz Kodeks nadzoru korporacyjnego dlaspółek publicznych 21 przygotowany przez Polskie ForumCorporate Governance IBnGR, także z 2002 roku. Cowięcej, w dłuższej perspektywie oba zestawy rekomendacjiposłużyły do przygotowania rankingównadzoru korporacyjnego (sformułowanych zarównoprzez Polski Instytut Dyrektorów 22 , jak i IBnGR), któreobejmowały ocenę spółek notowanych na GPW z perspektywyprzestrzegania zapisów tych dokumentów.Ze względu na uwarunkowania instytucjonalne, wiążącydla spółek giełdowych był oczywiście dokumentprzygotowany na GPW, który doczekał się kolejnychzmian w 2004 23 i 2007 24 roku. Z tego też powodudalsza analiza będzie dotyczyła jedynie dokumentówprzygotowanych przez Komitet Dobrych PraktykGPW, aczkolwiek należy podkreślić istotne znaczenieinicjatywy IBnGR, która nie tylko stanowiła doping dlaGPW, ale równocześnie była interesującym punktemodniesienia w zakresie poszczególnych rekomendacjii budowania rankingu. Inicjatywa ta stanowiła takżeimpuls do prowadzenia badań z zakresu nadzorukorporacyjnego oraz niewątpliwie przyczyniła się dopopularyzacji tego zagadnienia w naszym kraju.W 2001 roku oraz w latach kolejnych Komitet DobrychPraktyk działający przy GPW postawił sobie zacel przybliżenie polskiemu rynkowi zasad corporategovernance i wprowadzenie pewnych rekomendacji,które zwiększyłyby efektywność nadzoru i poprawiłybyramy działania spółek, inwestorów i innychuczestników rynku. Ideą było prowadzenie szerokiegodialogu środowiskowego, w którym uczestniczyłybyspółki, banki, fundusze, instytucje, regulatorzy, domymaklerskie i środowiska naukowe, a efektem byłobysformułowanie zestawów dobrych praktyk nadzorukorporacyjnego, które wyznaczyłyby standardy praktykigospodarczej, obowiązujące spółki notowane nagiełdzie 25 . Sformułowane dotychczas trzy dokumentydobrych praktyk wskazują na ciągłe zmiany w obszarzenadzoru korporacyjnego i pojawianie się nowychwyzwań dotyczących praktyki działalności spółek.Z tego punktu widzenia, dobre praktyki w Polscestawiają sobie za cel – z jednej strony – osiągnieciekompromisu poprzez przyjmowanie zasad w porozumieniuze spółkami, które potem będą je stosować.Z drugiej zaś strony dokumenty te starają się odpowiadaćna jak najbardziej aktualne potrzeby rynkui jego uczestników.Warto w tym miejscu zaznaczyć, iż idea dobrychpraktyk i formułowania rekomendacji dla polskiegorynku kapitałowego nie została entuzjastycznieprzyjęta przez większość spółek. Choć, zgodnie z założeniamileżącymi u podstaw dobrych praktyk, napodniesieniu standardów powinny skorzystać wszyscyuczestnicy rynku, to dla wielu z nich inicjatywa ta byłaniezrozumiała i traktowano ją czysto instrumentalnie,jako wymysł władz GPW. W tym okresie świadomośćznaczenia zasad corporate governance była bardzoniska. Spółki obserwowały nieetyczne (często nagranicy prawa) działania akcjonariuszy i nie znajdywałypowodów dla ochrony inwestorów. Dominującyakcjonariusze z kolei nie byli zmuszeni, by brać poduwagę żądania czy oczekiwania inwestorów mniejszościowych.Ponadto przyswojenie i wdrożenie dobrychpraktyk wiązało się w początkowych okresach zeznacznymi kosztami i zmianami organizacyjno-strukturalnymi,umożliwiającymi np. efektywne raportowanieprzestrzegania lub nieprzestrzegania dobrychpraktyk. Co więcej, polski rynek kapitałowy, charakteryzującysię znaczną koncentracją własności, niedawał żadnej gwarancji, iż ewentualne wysiłki spółekw obszarze dobrych praktyk zostaną w jakikolwieksposób dostrzeżone przez inwestorów. Przełomemw postrzeganiu zasad nadzoru korporacyjnego byłyniewątpliwie lata 2004–2005, choć i dzisiaj zapewne19Por. przegląd w: M. Aluchna, Does good corporate governance master? Best practice in Poland, „Management ResearchNews” 2009, t. 3/29 [w druku].20Dobre praktyki w spółkach publicznych 2002, Giełda Papierów Wartościowych w Warszawie, 2002.21Kodeks nadzoru korporacyjnego dla spółek publicznych (2002). Polskie Forum Corporate Governance, Instytut Badań nadGospodarką Rynkową. Prawnicy zwracają jednak uwagę, by nie używać terminu ‘kodeks’ w odniesieniu do zestawówdobrych praktyk, gdyż termin ‘kodeks’ opisuje twarde prawo o wysokim statusie wśród pozostałych aktów prawnych,np. Kodeks cywilny, Kodeks postępowania administracyjnego.22Więcej informacji dostępnych na stronie: www.pid.org.pl.23Dobre praktyki w spółkach publicznych 2005, Giełda Papierów Wartościowych w Warszawie, 2004. Dokument zacząłobowiązywać od 2005 roku.24Dobre praktyki spółek notowanych na GPW, Giełda Papierów Wartościowych w Warszawie, 2007. Dokument zacząłobowiązywać od 1 stycznia 2008 roku.25A. Nartowski, Dobra praktyka 2005, „Gazeta Bankowa” 2004, 06/12, s. 41.kwiecień 2008 21


metody, formy i programy kształceniaznaleźć można spółki, które traktują dobre praktykiinstrumentalnie.Bazując na doświadczeniach ogólnoświatowych,również w polskich dobrych praktykach przyjęto zasadęcomply or explain 26 , zgodnie z którą każda notowanana GPW spółka powinna do 30 lipca każdego rokuwydawać oświadczenie określające, czy stosuje siędo zaleceń dokumentu. W przypadku niestosowaniaposzczególnych rekomendacji, spółka powinna podaćprzyczynę takiego stanu rzeczy. Dobre praktyki 2002koncentrowały się na wówczas aktualnych i problematycznychaspektach – sformułowano 48 rekomendacjidotyczących funkcjonowania walnego zgromadzenia,rady nadzorczej i zarządu oraz relacji z instytucjamizewnętrznymi. Rekomendacje z 2002 27 roku przyjęłynastępującą strukturę:! w preambule przedstawiono cele dobrych praktyk;! w zasadach ogólnych zawarto stwierdzenie,iż podstawowym celem działania władz spółkijest realizacja interesu spółki, rozumianego jakopowiększanie wartości powierzonego jej przezakcjonariuszy majątku z uwzględnieniem praw i interesówinnych podmiotów zaangażowanych w funkcjonowaniespółki, w szczególności wierzycieli spółkioraz jej pracowników. W spółce jest uznawanazasada większości kapitałowej przy ochroniepraw i uwzględnianiu interesów mniejszości;! zgodnie z punktem „dobre praktyki walnychzgromadzeń” – WZA powinno odbywać sięw miejscu i czasie wygodnym dla jak najszerszegokręgu akcjonariuszy. Projekty uchwałproponowanych do przyjęcia oraz inne istotnemateriały powinny być przedstawiane akcjonariuszomw czasie umożliwiającym zapoznaniesię z nimi. Odwołania lub zmiany terminuWZA można dokonać za zgodą wnioskodawcówzwołujących zgromadzenie, nie późniejjednak niż na trzy tygodnie przed pierwotnieplanowanym terminem. Walne zgromadzeniepowinno mieć stabilny regulamin, określającyszczegółowe zasady prowadzenia obrad i podejmowaniauchwał, a także postanowieniadotyczące wyborów, w tym rady nadzorczej– w drodze głosowania grupami. Podczas WZAobecni powinni być członkowie zarządu, radynadzorczej oraz biegły rewident, którzy powinniudzielać uczestnikom zgromadzenia wyjaśnieńi informacji dotyczących spółki w zakresie swoichkompetencji;! w punkcie „dobre praktyki rad nadzorczych”dokument zaleca, by członek rady nadzorczejposiadał należyte wykształcenie, doświadczeniezawodowe oraz życiowe, reprezentował wysokipoziom moralny oraz był w stanie poświęcićniezbędną ilość czasu na wykonywanie funkcjiw radzie. Przynajmniej połowę rady powinnistanowić członkowie niezależni, czyli wolniod jakichkolwiek powiązań ze spółką i akcjonariuszamilub pracownikami. Dobre praktykiokreślają zakres uchwał, których nie powinnapodejmować rada nadzorcza bez zgody przynajmniejjednego członka niezależnego (np.świadczenia przez spółkę i podmioty powiązaneze spółką na rzecz członków zarządu, wyrażeniazgody na zawarcie przez spółkę lub podmiotod niej zależny istotnej umowy z podmiotempowiązanym ze spółką, członkiem rady nadzorczejalbo zarządu oraz z podmiotami z nimipowiązanymi czy wyboru biegłego rewidentado przeprowadzenia badania sprawozdaniafinansowego). Dodatkowo, członkowie radypowinni podejmować działania, by uzyskiwaćod zarządu regularne i wyczerpujące informacjeo istotnych sprawach dotyczących działalnościspółki oraz o ryzyku związanym z prowadzonądziałalnością. Członek rady powinien poinformowaćo zaistniałym konflikcie pozostałe osobyw radzie i powstrzymać się od zabierania głosuw dyskusji oraz głosowania nad przyjęciemuchwały w sprawie, w której zaistniał konfliktinteresów. Informacja o osobistych, faktycznychi organizacyjnych powiązaniach członkarady nadzorczej z danym akcjonariuszem,a zwłaszcza z akcjonariuszem większościowym,powinna być dostępna publicznie. W zakresieposiedzeń rady zaleca się, by z wyjątkiemspraw dotyczących bezpośrednio zarządu lubjego członków, w szczególności odwoływania,odpowiedzialności oraz ustalania wynagrodzenia,były one dostępne i jawne dla członkówzarządu. Ponadto, rada powinna działać zgodnieze swoim publicznie dostępnym regulaminem,w jej ramach powinny działać co najmniej dwakomitety (audytu oraz wynagrodzeń), porządekobrad nie powinien być zmieniany lubuzupełniany w trakcie posiedzenia rady (chybaże obecni są wszyscy członkowie i wyrażają nato zgodę), członek nie powinien rezygnowaćz pełnienia funkcji w radzie w trakcie kadencji,jeżeli mogłoby to negatywnie wpłynąć na porządeki efektywność jej pracy. Zgodnie z dobrymipraktykami, wynagrodzenia członków radynadzorczej powinny pozostawać w rozsądnejrelacji do wynagrodzenia zarządu, a łączne wynagrodzenieczłonków powinno być ujawnianew raporcie rocznym;! zgodnie z punktem „dobre praktyki zarządów”,zarząd kieruje się interesem spółki, określastrategię oraz główne cele działania, które przekładaradzie nadzorczej. Dba o przejrzystośći efektywność systemu zarządzania spółką orazprowadzenie jej spraw zgodnie z przepisamiprawa i dobrą praktyką w granicach uzasad-26W. Rozłucki, Dobre praktyki w Polsce, „Prawo europejskie w praktyce”, 2004, nr 4/ XI, s. 45–48.27Dobre praktyki w spółkach publicznych, 2002, op. cit.22 e-<strong>mentor</strong> nr 2 (24)


Dobre praktyki corporate governance...nionego ryzyka gospodarczego. Przy ustalaniuinteresu spółki zarząd powinien brać pod uwagędługoterminowe interesy akcjonariuszy, wierzycieli,pracowników spółki oraz innych podmiotówi osób współpracujących ze spółką, a takżeinteresy społeczności lokalnych. Wskazane jest,aby zarząd działał ze szczególną starannością,by transakcje były dokonywane na warunkachrynkowych, zaś jego członkowie powinni zachowywaćpełną lojalność wobec spółki i uchylaćsię od działań, które mogłyby prowadzić wyłączniedo realizacji własnych korzyści materialnych.Członkowie zarządu powinni poinformowaćradę nadzorczą o każdym konflikcie interesów(w związku z pełnioną funkcją) lub o możliwościjego powstania. Zarząd powinien ustalić zasadyi tryb pracy oraz podział kompetencji w regulaminie,który powinien być jawny i ogólniedostępny. Wynagrodzenie członków zarządupowinno odpowiadać wielkości przedsiębiorstwa,pozostawać w rozsądnym stosunku dowyników ekonomicznych, a także wiązać sięz zakresem odpowiedzialności wynikającejz pełnionej funkcji, z uwzględnieniem poziomuwynagrodzenia członków zarządu w podobnychspółkach na porównywalnych rynkach. Łącznewynagrodzenie członków zarządu, a takżewysokość wynagrodzeń indywidualnych z rozbiciemna poszczególne składniki powinny byćujawniane w raporcie rocznym wraz z informacjąo zasadach ustalania;! „dobre praktyki w zakresie relacji z osobamii instytucjami zewnętrznymi” rekomendują, bysposób wyboru biegłego rewidenta zapewniałniezależność realizacji powierzonych mu zadań(wybór powinien być dokonany przez radęnadzorczą przy rekomendacji komitetu audytulub WZ, po przedstawieniu rekomendacji przezradę, z uwzględnieniem opinii komitetu audytu),spółka powinna dokonywać zmiany biegłegorewidenta przynajmniej raz na pięć lat. Nabywanieakcji własnych przez spółkę powinnobyć dokonane w taki sposób, aby żadna grupaakcjonariuszy nie była uprzywilejowana. Ponadto,spółka powinna dysponować odpowiednimiprocedurami i zasadami dotyczącymi kontaktówz mediami i prowadzenia polityki informacyjnej,zapewniającymi spójne i rzetelne informacjeo spółce. Status spółki, podstawowe regulacjewewnętrzne, informacje i dokumenty związanez walnym zgromadzeniem, a także sprawozdaniafinansowe powinny być dostępne w siedzibiespółki i na jej stronach internetowych.Dobre praktyki z 2005 roku są bardzo podobne doswoich poprzedników. Podstawową różnicą są zapisydotyczące niezależnych członków rady nadzorczej. Zewzględu bowiem na duże kontrowersje zapisów orazznaczny opór ich przestrzegania, w szczególnościprzez spółki o silnie skoncentrowanej własności, w zasadzienumer 20 dodano punkt d, zgodnie z którym[...] w spółkach, gdzie jeden akcjonariusz posiada pakiet akcjidający ponad 50% ogólnej liczby głosów, rada nadzorczapowinna liczyć co najmniej dwóch niezależnych członków[a nie połowę, jak w zapisach dokumentu z 2002roku], w tym niezależnego przewodniczącego komitetuaudytu, o ile taki komitet został ustanowiony 28 .Dobre praktyki 2008W 2007 roku przygotowany został nowy dokumentDobre praktyki spółek notowanych na GPW, którego zapisyobowiązują od 1 stycznia 2008 roku. Przyjmuje onodmienną od wcześniejszych strukturę oraz wprowadzawiele zmian. Nowe rekomendacje zaproponowaneprzez giełdę związane są z pojawiającymi się wyzwaniamiczekającymi rynek i spółki oraz z rozwiązaniemproblemów obserwowanych wcześniej (np. proceduryprzebiegu WZA, funkcjonowanie rady). Główna uwagadobrych praktyk została bowiem skierowana nie nakwestie wewnętrznych relacji między poszczególnymiorganami i ich funkcjonowanie w spółce, lecz nazagadnienie zwiększenia przejrzystości i poprawypolityki informacyjnej spółek notowanych na giełdzie.Zadania te mają pomóc w realizacji strategii GPW,czyli stworzeniu konkurencyjnego, innowacyjnegoi atrakcyjnego rynku, który będzie stanowił środkowo-europejskiecentrum obrotu instrumentamifinansowymi 29 .Dokument ten jest znacznie mniej obszerny i zawiera32 rekomendacje w następujących punktach 30 :! Preambuła – podkreślająca znaczenie nadzorukorporacyjnego dla polskiego rynku kapitałowegooraz rolę i działanie GPW w tymobszarze;! Część I: Rekomendacje dotyczące dobrych praktykspółek giełdowych – odnoszące się przede wszystkimdo prowadzonej polityki informacyjnejoraz wykorzystywania nowych technologii dokomunikacji z rynkiem (np. transmitowanie obradWZA, publikowanie na stronie internetowejsprawozdania z obrad). Rekomendacje dotyczątakże wynagrodzeń członków organów spółki(które powinny wiązać się z zakresem zadańi odpowiedzialności i pozostawać w rozsądnymstosunku do wyników ekonomicznych spółki)oraz członków rady nadzorczej (powinni miećodpowiednią wiedzę i być przygotowani dopełnienia funkcji, w swoim postępowaniu kierowaćsię interesem spółki oraz nie przyjmowaćnieuzasadnionych korzyści);28Dobre praktyki w spółkach publicznych 2005, op. cit.29L. Sobolewski, Listed on WSE: corporate governance, prezentacja w ramach konferencji organizowanej przez PolskiInstytut Dyrektorów i Giełdę Papierów Wartościowych, 5 marca 2007 r.30Dobre praktyki spółek notowanych na GPW, 2007, op. cit.kwiecień 2008 23


metody, formy i programy kształcenia! Część II: Dobre praktyki realizowane przezzarządy spółek giełdowych dotyczą przedewszystkim prowadzonej przez zarząd politykiinformacyjnej. W tym zakresie dobre praktykizalecają prowadzenie przez spółkę giełdowąstrony internetowej (od stycznia 2009 rokutakże w języku angielskim), na której będązamieszczane najważniejsze informacje wpływającena postrzeganie spółki i jej akcji przezinwestorów. Na stronie powinny znaleźć siędokumenty korporacyjne, życiorysy zawodoweczłonków organów spółki, informacje o terminiei miejscu WZA, a także informacje o ewentualnymjego odwołaniu i przerwach, rocznesprawozdanie z działalności rady nadzorczej,informacje o zdarzeniach korporacyjnych,informacje o powiązaniach członków radynadzorczej, kosztach programu motywacyjnego(o ile w spółce taki jest wprowadzony)oraz raport stosowania zasad nadzoru korporacyjnego.Dobre praktyki zalecają takżezarządowi uzyskanie aprobaty rady nadzorczejprzed zawarciem istotnej umowy z podmiotempowiązanym oraz przedstawienie uchwał WZAwraz z uzasadnieniem;! Część III: Dobre praktyki stosowane przez członkówrad nadzorczych zalecają sporządzanieprzez radę nadzorczą oceny sytuacji spółkiwraz z oceną systemu kontroli wewnętrzneji systemu zarządzania ryzykiem istotnym dlaspółki. Członkowie rady nadzorczej powinniprzekazać informacje na temat swoich powiązańz akcjonariuszem posiadającym nie mniejniż 5 proc. ogólnej liczby głosów, powinnitakże uczestniczyć w obradach WZ, informowaćo zaistniałym konflikcie interesów. Dodatkowo,dobre praktyki zalecają, by przynajmniej dwóchczłonków rady spełniało kryteria niezależnościw rozumieniu zalecenia Komisji Europejskiejz 15 lutego 2005 roku. W ramach rady powinienfunkcjonować co najmniej komitet audytu,w skład którego powinien wchodzić co najmniejjeden członek niezależny;! Część IV: Dobre praktyki stosowane przez akcjonariuszy– odnoszą się do kwestii związanychz umożliwianiem akcjonariuszom obecnościi uczestnictwa na WZ, trybu podejmowaniauchwał WZA, terminu ustalenia dywidendy orazzapewnienia przez WZA lub radę nadzorczązmiany podmiotu badającego sprawozdaniefinansowe raz na siedem lat obrotowych.Podkreślenia wymaga także zmiana sposobuinformowania uczestników rynku o przestrzeganiudobrych praktyk przez spółki. Tak jak dotychczasobowiązuje zasada comply or explain. Nawiązującdo wcześniejszej praktyki rocznych oświadczeń,giełda wprowadziła obowiązek przygotowywaniaprzez spółki raportów z przestrzegania dobrychpraktyk corporate governance, obejmujących częściod II–IV, które są dołączane do raportu rocznego 31 .Dodatkowo, władze giełdy wprowadziły obowiązekpublikowania raportów analogicznych do raportówbieżących, o naruszeniu lub złamaniu którejś z zasaddobrych praktyk 32 . Ideą jest jak najszybsze informowanierynku o zaistniałej sytuacji.Trudno jest na obecnym etapie oceniać nowy dokumentze względu na krótki okres obowiązywanianowych dobrych praktyk oraz brak doświadczeniarynku w zakresie raportów dołączanych do sprawozdańrocznych. Warte jest podkreślenia, iż spółkipublikują raporty bieżące o naruszeniach zasaddobrych praktyk. Niemniej jednak uwagę zwracafakt, iż nowy dokument nie nakłada obowiązku publikowaniaindywidualnych wynagrodzeń członkówzarządu z uwzględnieniem ich struktury (co zalecanow dobrych praktykach z 2005 roku) oraz obniża wymógodnośnie proporcji niezależnych członków radynadzorczej (w zapisach z 2002 i 2005 roku była toprzynajmniej połowa z zastrzeżeniem sytuacji, gdydominujący akcjonariusz posiadania ponad 50 proc.ogólnej liczby głosów).PodsumowanieInicjatywy dobrych praktyk corporate governancesą niezwykle popularne na całym świecie i mająswoich zwolenników zarówno w grupie inwestorówi spółek, jak również regulatorów i badaczy. Polska,w tym szczególnie Giełda Papierów Wartościowychw Warszawie, wpisuje się w ten proces i także przygotowujedokumenty dotyczące standardów praktykigospodarczej, których zadaniem jest reagowanie naaktualne problemy i wyzwania dla spółek oraz rynkukapitałowego. W niniejszym opracowaniu przedstawionopokrótce historię i główne dokumentydobrych praktyk w Polsce wraz z analizą kierunkówrozwoju. Choć nowy dokument jest różnie ocenianyprzez poszczególne środowiska, niewątpliwie należypoczekać, aż jego dłuższe stosowanie umożliwianalizę ewentualnych zmian w zakresie standardówcorporate goverance w Polsce. Ponadto, istotnymsprawdzianem dla nowego dokumentu będzie jegoocena przez same spółki oraz inwestorów. Na zakończeniewarto dodać, iż zgodnie ze stanowiskiemwładz Giełdy, nowy dokument Dobre praktyki spółeknotowanych na GPW nie kończy procesu formułowa-31Uchwała Nr 1013/2007 Zarządu Giełdy Papierów Wartościowych w Warszawie S.A. z dnia 11 grudnia 2007 r. w sprawieokreślenia zakresu i struktury raportu dotyczącego stosowania zasad ładu korporacyjnego przez spółki giełdowe;Uchwała Nr 1014/2007 Zarządu Giełdy Papierów Wartościowych w Warszawie S.A. z dnia 11 grudnia 2007 r. w sprawieczęściowego wyłączenia obowiązku publikowania raportów dotyczących zasad ładu korporacyjnego obowiązującychna Głównym Rynku GPW.32Uchwała Nr 13/1171/2007 Rady Nadzorczej Giełdy Papierów Wartościowych w Warszawie S.A. z dnia 4 lipca 2007 r.w sprawie zmiany Regulaminu Giełdy.24 e-<strong>mentor</strong> nr 2 (24)


Dobre praktyki corporate governance...nia rekomendacji. Ich aktualizacja będzie z jednejstrony związana z wprowadzaniem nowych spółekna parkiet i działań podejmowanych w ramachUnii Europejskiej (harmonizacja prawa, włączaniedyrektyw i rekomendacji KE), a z drugiej będziewynikiem rozwoju GPW oraz procesów globalizacyjnych(prywatyzacja, konsolidacja). W efekcie należyspodziewać się kolejnych zmian zapisów dobrychpraktyk oraz kolejnych analiz pojawiających siędokumentów.BibliografiaM. Aluchna, Does good corporate governance master?Best practice in Poland, „Management Research News”2009, t. 3/29 [w druku].M. Becht, A. Röell, Blockholdings in Europe: An internationalcomparison, „European Economic Review” 1999,t. 43, s. 1049-1056.Dobre praktyki spółek notowanych na GPW, Giełda PapierówWartościowych w Warszawie, 2007.Dobre praktyki w spółkach publicznych 2002, GiełdaPapierów Wartościowych w Warszawie, 2002.Dobre praktyki w spółkach publicznych 2005, GiełdaPapierów Wartościowych w Warszawie, 2004.K. Hopt, G.J. Garrido, J. Rickford, G. Rossi, J.S. Christensen,S. Joëlle, J. Winter, European Corporate Governancein company law and codes, European Corporate GovernanceConference, Haga 2004.Kodeks nadzoru korporacyjnego dla spółek publicznych,Polskie Forum Corporate Governance, Instytut Badańnad Gospodarką Rynkową, 2002.R. La Porta, F. Lopez-de-Silanes, A. Shleifer, Investorprotection and corporate governance, „Journal of FinancialEconomics” 2000, t. 58, s. 3–27.C. Mallin, Corporate governance, Oxford UniversityPress, Oxford 2004.R.A. Monks, N. Minow, Corporate governance, BlackwellBusiness, 2004.A. Nartowski, Dobra praktyka 2005, „Gazeta Bankowa”2004, 06/12, s. 41.OECD, Principles of corporate governance, 2004,http://www.oecd.org/dataoecd/32/18/31557724.pdf[28.03.2008].W. Rozłucki, Dobre praktyki w Polsce, „Prawo europejskiew praktyce”, 2004, nr 4/ XI, s. 45–48.L. Sobolewski, Listed on WSE: corporate governance,prezentacja w ramach konferencji organizowanej przezPolski Instytut Dyrektorów i Giełdę Papierów Wartościowych,5 marca 2007 r.Uchwała Nr 1013/2007 Zarządu Giełdy PapierówWartościowych w Warszawie S.A. z dnia 11 grudnia2007 r. w sprawie określenia zakresu i struktury raportudotyczącego stosowania zasad ładu korporacyjnegoprzez spółki giełdowe.Uchwała Nr 1014/2007 Zarządu Giełdy Papierów Wartościowychw Warszawie S.A. z dnia 11 grudnia 2007 r.w sprawie częściowego wyłączenia obowiązku publikowaniaraportów dotyczących zasad ładu korporacyjnegoobowiązujących na Głównym Rynku GPW.Uchwała Nr 13/1171/2007 Rady Nadzorczej GiełdyPapierów Wartościowych w Warszawie S.A. z dnia 4 lipca2007 r. w sprawie zmiany Regulaminu Giełdy.F.W. Weston, J.A. Siu, B.A. Johnson, Takeovers, restructuringand corporate governance, Upper Saddle River,Nowy Jork 2001.PolecamySpołeczeństwo informacyjnered. Joanna Papińska-KacperekPWN, Warszawa 2008Naukowcom trudno jest zgodzić się najedną definicję społeczeństwa informacyjnego.Socjologowie, ekonomiściczy informatycy podkreślają różneelementy nowych zjawisk, uznając jeza kluczowe. Wszyscy uważają jednomyślnie,że mamy do czynienia z nowąformacją społeczno-gospodarczą i zastawiająsię nad dalszym jej rozwojem.Czy społeczeństwo podzieli się na trzywarstwy: proletariat telewizyjny, digitariati kognitariat? Czy dotrzemy do takiego etapu, w którymosobisty udział człowieka w wytwarzaniu dóbr materialnychnie będzie już konieczny? Czy wszystkie dziedziny życiazostaną zinformatyzowane? Osobom zainteresowanym tątematyką polecamy publikację Społeczeństwo informacyjne,przygotowaną pod redakcją Joanny Papińskiej-Kacperek.Autorzy omawiają w książce wiele zagadnień związanychz tematem. Oprócz wstępnych rozdziałów poświęconychhistorii, definicjom czy przesłankom, które doprowadziłydo powstania społeczeństwa informacyjnego, czytelnikmoże zapoznać się z charakterystyką technologii dostępudo informacji, w tym m.in.: oprogramowania, internetu,telewizji cyfrowej czy komunikacji mobilnej. Szczegółowoomówione zostały także różne aspekty bezpieczeństwaw sieci, np. uwierzytelnianie przez hasła, kryptograficznaochrona danych, tworzenie kopii bezpieczeństwa. W publikacjizawarto również podstawowe wiadomości na tematzarządzania wiedzą, edukacji w społeczeństwie informacyjnym,gospodarki elektronicznej, w szczególności e-biznesu,oraz modelu organizacji wirtualnej, a także elektronicznejadministracji. Książkę można nabyć w księgarni internetowejwydawnictwa: http://ksiegarnia.pwn.plMiędzynarodowa Konferencja NaukowaGOSPODARKA i SPOŁECZEŃSTWO Zarządzanie– Wiedza – Rozwój, 5–7 czerwca 2008 r.Wydział Zarządzania PolitechnikiBiałostockiej w KleosinieOrganizatorzy konferencji pragną zachęcić przedstawicieliróżnych środowisk do dyskusji na temat problemów zarządzaniakapitałem ludzkim, społecznym i kulturowym.Tematyka konferencji obejmować będzie następującezagadnienia: promocja i rozwój regionalny/lokalny, zarządzaniemarketingowe – współczesne tendencje, stosunkidobrosąsiedzkie i współpraca na obszarach transgranicznych,zarządzanie turystyką, problemy zarządzaniakapitałem ludzkim, społecznym i kulturowym, procesydostosowawcze podmiotów gospodarczych do wyzwańglobalnych, aspekty środowiskowe funkcjonowaniapodmiotów gospodarczych, wyzwania e-społeczeństwai gospodarki opartej na wiedzy.Uczestnicy konferencji zastanowią się nad szansami i zagrożeniamirozwojowymi współczesnego społeczeństwai gospodarki. Więcej informacji na:http://www.konferencja2008.wz.pb.edu.plkwiecień 2008 25


metody, formy i programy kształceniaPrezentacja profesjonalna– recenzjaMarta JuchnowiczOsoby, których działalność wymagawystąpień publicznych i efektywnegokomunikowania się z innymi, zdają sobiesprawę, jak trudną sztuką jest dobraprezentacja, ile wywołuje emocji, stresu,wreszcie – ile wysiłku wymaga jej przygotowanie.Niezwykle pomocna w tejdziedzinie może okazać się publikacja pt.Prezentacja profesjonalna. Teoria i praktyka,praca zbiorowa wydana pod redakcjąLidii Jabłonowskiej, Piotra Wachowiakaoraz Sławomira Wincha. Dostarcza onaczytelnikowi szeregu rad i wskazówek,jak zachować się w konkretnych sytuacjach, a przedewszystkim jak osiągnąć maksymalną skuteczność.W tym celu, na przykład Anna Winch przedstawiadziesięć czynników, które – jej zdaniem – sprzyjająosiągnięciu sukcesu w prezentacji. Należą do nich nietylko kompetencje, spójność, konsekwencja, kulturaczy atrakcyjność zewnętrzna, ale także bezinteresowność,zrównoważone zachowanie, egzemplifikacjai etykietowanie 1 .Istotnym walorem książki jest kompleksowe orazinterdyscyplinarne potraktowanie zagadnień związanychz prezentacją. Odpowiada temu logiczniezaprojektowana struktura treści. Publikacja składa sięz trzech części poświęconych kolejnym fazom procesuprezentacji, od jej przygotowania, przez przedstawienie,do podsumowania. Część pierwsza, zatytułowanaPrzed prezentacją, dostarcza czytelnikowi informacjio komunikacji interpersonalnej, warunkach budowaniawiarygodności i zaufania oraz radzenia sobieze stresem. Według intencji autorów przygotowaniedo prezentacji jest poszukiwaniem odpowiedzi napytanie: komu wierzą ludzie? 2 Pomocne w tej kwestiisą, między innymi, wskazówki na temat procesukreowania własnego wizerunku, określanego też jakomanipulowanie wrażeniem oraz różnorodne taktykiautoprezentacyjne.Dla czytelników szczególnie istotna może okazaćsię druga część książki, zatytułowana – W czasie prezentacji.Autorzy kierują się założeniem, że prezentacjajest relacją kupna-sprzedaży, w której osiągnięciesukcesu zależy od zastosowanych technik wywieraniawpływu. Rozdziały szczegółowo przedstawiają wskazówkidotyczące przebiegu prezentacji, <strong>zachowania</strong>,sposobów mówienia, a nawet sylwetki i ruchówprezentującego.Trzecia część książki, obejmującakolejne pięć rozdziałów, traktuje o sytuacjach,jakie pojawiają się po prezentacji.Przedstawione zostały tu informacje pomocnew opanowaniu audytorium, wskazówkidotyczące prowadzenia dyskusjioraz <strong>zachowania</strong> w trakcie odpowiadaniana pytania, a także reakcji na ewentualnewątpliwości odbiorców. Autorzynie pominęli problemów, które mogąujawnić się w sytuacjach konfliktowych,trudnych. Dlatego poruszyli zagadnienieasertywności w relacjach z odbiorcamioraz podjęli się analizy przyczyn najczęściej popełnianychbłędów.Szerokie spektrum poruszonych zagadnień czyniz książki Prezentacja profesjonalna uniwersalny i niezwyklepożyteczny poradnik dla szerokiego gronaodbiorców – menedżerów, nauczycieli, treneróworaz uczestników wszystkich typów kształcenia.Przemawia za tym duży udział konkretnych informacjii rad praktycznych, dotyczących na przykład wygląduzewnętrznego, aranżacji sali, tempa mówienia, itp.W wielu fragmentach książki znajdują się zestawyćwiczeń, jak choćby oddechowych, pomocnych w radzeniusobie ze stresem oraz do samodzielnej pracynad głosem. Zagadnienie mowy ciała objaśnione jestza pomocą licznych zdjęć. Czytelnik znajdzie równieżwiele inspirujących fragmentów na temat m.in. technikwywierania wpływu w przekazie treści, radzenia sobiez trudnymi pytaniami słuchaczy, czy też bronieniaswojego terytorium psychologicznego.Książka została opracowana przez zespół ekspertów3 , którzy znajomość tej problematyki potwierdzająswoimi osiągnięciami. Osoby te są menedżerami,wykładowcami, trenerami o uznanych w środowiskusukcesach w komunikacji interpersonalnej orazdydaktyce, potwierdzonych najwyższymi ocenamiwspółpracowników i słuchaczy.Prezentacja profesjonalna to publikacja o istotnychwalorach teoriopoznawczych. Potwierdza to obszernabibliografia, która liczy sto dwadzieścia dziewięć pozycjiz literatury przedmiotu. Wyważone połączenietreści teoretycznych i aspektów utylitarnych decydujeo możliwości wykorzystania tej wiedzy w różnychdziedzinach i do różnych celów, jak na przykład: prezentacjiprojektu, oferty handlowej, czy prowadzeniaszkolenia.1L. Jabłonowska, P. Wachowiak, S. Winch (red.), Prezentacja profesjonalna. Teoria i praktyka, Difin,Warszawa 2008, s. 22.2Tamże, s. 7.3Lidia Jabłonowska, Katarzyna Stoińska, Agnieszka Wojtczuk-Turek, Anna Winch, Grzegorz Myśliwiec, Marcin Szczygieł,Piotr Wachowiak i Sławomir Winch.26 e-<strong>mentor</strong> nr 2 (24)


E-obywatel– przezwyciężaniebarierBeata ChodackaMarek MiłoszE-społeczeństwo i e-integracjaInternet jest dzisiaj dla wielu osób nie tylkoźródłem informacji, ale i miejscem, gdzie możnazałatwić wiele spraw – od tych osobistych po urzędowe.Liczba usług realizowanych za pomocą tegomedium rośnie z roku na rok, tworząc wirtualnyświat sklepów, bibliotek, kin, urzędów pocztowychi komunikacyjnych, biur podróży, itp. W tej wirtualnejrzeczywistości funkcjonują realne osoby, zaangażowanew jego funkcjonowanie, tworzenie orazkorzystanie z jego dóbr, jakimi są informacje.Tworzenie i przetwarzanie informacji, a nie dóbrmaterialnych, jest jednym z określeń społeczeństwainformacyjnego 1 (e-społeczeństwa), opartego nawiedzy, mądrości oraz nowoczesnej, ciągle rozwijającejsię technologii informacyjnej. Do tego gronadołącza coraz większa rzesza osób, ale istniejeteż spora grupa obywateli, którzy są zagrożeniwykluczeniem cyfrowym. Powstające rozwarstwieniespołeczne wynika z informatycznego analfabetyzmu,czyli braku umiejętno ści posługiwania siętechnologiami informatycznymi.W 2006 roku państwa Unii Europejskiej 2 podjęłydziałania mające przeciwdziałać wykluczeniucyfrowemu, poprzez niwelowanie różnic pomiędzyosobami, które korzystają z internetu na co dzieńa tymi, które z niego korzystać nie umieją. E-integracja– jedno ze strategicznych założeń UniiEuropejskiej – ma na celu podejmowanie działańzmierzających do pomocy osobom starszym, bezrobotnym,jak też niepełnosprawnym w dostępie dosieci oraz sprawnym korzystaniu z jej usług.Potencjalne przyczyny po wstawania wykluczeniacyfrowego to przede wszystkim bariery społeczne,ale nie tylko. Mogą być nimi również warunki ekonomiczne,brak możliwości technicznych, wiek,status społeczny, niepełnosprawność, barierymentalne, niedostatki w wykształceniu (równieżjęzykowym) 3 .Droga do społeczeństwa informacyjnegoPoczątkowym zadaniem budowy społeczeństwainformacyjnego jest określenie grup osób, któresą szczególnie zagrożone cyfrowym wykluczeniemoraz zdefiniowanie problemów i polityki e-integracji4 . W tym celu Fundacja ECDL przeprowadziłabadania ankietowe w 25 krajach Europy 5 . Podobnebadania powtórzone zostały w Polsce 6 wśródmłodzieży akademickiej. Pytania ankiet dotyczyłymiędzy innymi:! określenia grup społecznych, które mają największeproblemy z przystosowaniem się dorealiów e-społeczeństwa,! najważniejszych barier w rozwoju społeczeństwainformacyjnego.1R. Tadeusiewicz, Społeczeństwo informacyjne – wizja czy rzeczywistość, http://www.ecdl.malopolska.pl/r.tadeusiewicz.pdf,[20.03.2008].2Deklaracja Ryska, 11 czerwca 2006 r., http://ec.europa.eu/information_society/events/ict_riga_2006/doc/declaration_riga.pdf, [20.03.2008].3P. Szeliński, Społeczeństwo informacyjne – o czym biblioteka XXI wieku powinna wiedzieć?, Politechnika Łódzka, ZakładAkademickiej Sieci Bibliotecznej – Centrum Komputerowe http://eprints.rclis.org/archive/00008989/01/szeflinski1.pdf,[20.03.2008].4Brochure of European Commission Information Society and Media, e-Inclusion, Information Society and Inclusion: LinkingEuropean Policies, 2006, http://ec.europa.eu/information_society/activities/policy_link/documents/inclusion.pdf,[20.03.2008].5ECDL Foundation survey on e-Inclusion policy, 2007.6E. Miłosz, M. Miłosz, E-Inclusion Policy Survey Results: Europe vs. Poland, Materiały Konferencji Computer Days, Wilno2007, s. 78–85.kwiecień 2008 27


metody, formy i programy kształceniaRysunek 1. Osoby zagrożone wykluczeniem cyfrowymŹródło: opracowanie własneGrupy społeczne zagrożone cyfrowymwykluczeniemRezultaty badań jednoznacznie wskazują na osobystarsze, niezależnie od ich statusu zawodowego,jako grupę społeczną, która ma największe problemyz przystosowaniem się do realiów społeczeństwainformacyjnego (rys. 1).Prawidłowość ta daje się zauważyć zarówno w Polsce(82 proc. ankietowanych), jak i w skali całej Europy(72 proc.). W naszym kraju kolejne, pod względemliczebności, grupy zagrożone wykluczeniem tworząosoby mające słaby dostęp do technologii oraz pochodzącez obszarów wiejskich. Tymczasem badaniaeuropejskie akcentują zagrożenia dla osób o słabymwykształceniu. W Polsce zagrożenie dla osób o niskimwykształceniu i imigrantów praktycznie niejest dostrzegane.Bariery w budowie e-społeczeństwaBadania europejskie (rys. 2) wykazują, że najpoważniejsząbarierą w procesie budowy społeczeństwainformacyjnego jest brak umiejętności (68 proc.) orazignorowanie korzyści płynących z wykorzystaniatechnologii informatycznych (62 proc.). Postawa takawynika z niskiej świadomości tych korzyści, a więcwskazuje również na braki edukacyjne.W Polsce za najważniejsze uważane są aspektytechniczne, a przede wszystkim ograniczony dostępdo internetu i jego wysoki koszt. Brak umiejętnościi ignorowanie korzyści wskazało (w przybliżeniu)o połowę mniej respondentów (rys. 2).E-obywatelKim jest e-obywatel? Najprościej mówiąc, tojednostka w e-społeczeństwie. Można też spojrzećna znaczenie słowa „obywatel”, które jest pojęciemzwiązanym z funkcjonowaniem osoby w państwiei społeczeństwie. Obywatel ma prawa i obowiązkiokreślone przez konstytucję oraz angażuje się w życiepubliczne.Życie społeczne w sposób jak najbardziej rzeczywistyprzenosi się do wirtualnego świata. Nie chodzijedynie o komunikację czy korzystanie z dostępudo informacji, ale o te e-usługi, które związane sąz funkcjonowaniem obywatelskim w państwie. Byciepoza zasięgiem internetu staje się poważnym problemem.Mimo rozwoju dostępności usług telekomunikacyjnychi sieci internetowej, istnieje spora grupaobywateli, dla których załatwianie spraw urzędowychprzez internet jest bardzo trudne lub niewykonalne.Według danych UE w 2005 roku, korzystało z niegojedynie 10 proc. osób powyżej 65 roku życia 7 .7Raport i2010, First Annual Report on the European Information Society, COM (2006) 0215.28 e-<strong>mentor</strong> nr 2 (24)


E-obywatel – przezwyciężanie barierRysunek 2. Bariery w budowie e-społeczeństwaŹródło: opracowanie własneE-obywatelskie możliwoście-bankiKilkanaście lat temu konto w banku nie było takpowszechne – funkcjonowaliśmy z „wypłatą w ręku”schowaną później do szuflady czy pod pościel w szafie.Stopniowo w zakładach pracy powstał nakazzałożenia kont bankowych i zaniechano wypłacaniapensji w gotówce – rozpoczęła się „era przelewów”.Od książeczek czekowych, poprzez karty bankomatowei kredytowe, banki rozwinęły możliwość e-obsługi.Dzisiaj duża część społeczeństwa korzysta z e-banku,nie wychodząc z domu – wygoda stałego dostępui samodzielnego zarządzania własnymi środkamifinansowymi stała się codziennością.e-sklepy i aukcje internetoweElektroniczny przepływ pieniędzy przez kartykredytowe otworzył możliwość e-konsumpcji, czyliwszelkiego rodzaju sprzedaży i kupna towarów orazusług za pośrednictwem internetu. Wirtualne sklepyoferują wszystkie możliwe produkty – od najbardziejekskluzywnych po codzienne zakupy spożywczew regionalnych sklepach. Oddzielną społecznośćw sieci tworzą uczestnicy aukcji internetowych, takichjak Allegro czy eBay. Dla części użytkownikówjest to miejsce pracy, gdzie mogą sprzedać własnewyroby lub prowadzić działalność handlową. Jakwynika z sondaży, Polacy odważnie robią zakupyprzez internet. Aż 66 proc. badanych przez firmęGemius skorzystało z oferty, o której usłyszeli właśniedzięki sieci.e-urządWielu obywateli czeka z niecierpliwością na wprowadzenieelektronicznej obsługi w urzędach. E-podpis,którego wdrożenie w życie w Polsce zostało przesunięte,będzie otwarciem zupełnie nowej epoki. Choć sąmiejsca, gdzie już można z niego korzystać – tak jestnp. w Urzędzie Miejskim w Kaliszu Pomorskim 8 orazw Bydgoszczy. Na stronach wielu urzędów można pobraćformularze, otrzymać pełną informację o sposobiewypełniania wniosku, a nawet porozumieć się elektroniczniez urzędnikiem. W Warszawie działa już eWOM– elektroniczny Wydział Obsługi Mieszkańców. Nastronie, poza informacją o godzinach pracy urzędów,są dostępne formularze, wnioski do składania online(rejestracja firmy, samochodu) oraz bazy danych.Można oczekiwać, iż w najbliższych latach nastąpidynamiczny rozwój e-urzędów obsługującychobywateli. Już pod koniec 2008 roku planowana jestelektroniczna obsługa wydawania takich dokumentów,jak dowody osobiste i paszporty oraz składaniezeznań podatkowych.e-zdrowieW tym samym czasie (do końca roku 2008) planowanejest usprawnienie obsługi pacjenta w polskiejsłużbie zdrowia. Przede wszystkim zostanie wprowadzonazdalna rejestracja na badania i wizyty lekarskie.Będzie też możliwy szerszy dostęp do informacji o terminach(łącznie z funkcją przypominania o terminie),o zmianach oraz rezygnacji z usługi medycznej. Rozwiązaniatakie stosują już z powodzeniem prywatnefirmy świadczące usługi medyczne. Również w śląskimoddziale NFZ już od kilku lat obowiązuje elektro-8Urząd Miejski w Kaliszu Pomorskim, http://eboi.kaliszpom.pl, [20.03.2008].kwiecień 2008 29


metody, formy i programy kształcenianiczna karta ubezpieczenia zdrowotnego – zamiastksiążeczki ubezpieczeniowej. Pacjent, przychodzącdo poradni, podaje kartę, która służy do autoryzacjiświadczeń medycznych. Wprowadzenie takich kart naterenie całego kraju nastąpi niebawem, tymczasem jużprzyzwyczailiśmy się do elektronicznej obsługi w aptece.Dzięki czytnikom recept trudniej o nadużyciaw tej dziedzinie, a wprowadzenie kart może całkiemwyeliminować papierowe recepty.e-turystykaW wielu krajach obywatele obsługiwani są elektronicznie(rys. 3.) – zaczynając od możliwości składaniaformularzy (np. wniosków wizowych do USA 9 ) pokontrolę paszportową bez udziału człowieka (np. nalotnisku o’Hare w Chicago 10 ). Elektroniczna obsługaturystów jest jednym z elementów rozwijającej sięe-turystyki. Internet otwiera nam nie tylko możliwośćpodróżowania po całym świecie, ale i korzystaniaz ofert zagranicznych biur podróży, często sporotańszych niż krajowe.Rysunek 3. Rezultat automatycznej kontroli paszportowejPopularność e-wakacji cały czas rośnie. PołowaPolaków poszukuje w sieci informacji o miejscachwypoczynku, a aż jedna trzecia uważa je za najbardziejwiarygodne źródło. Biura podróży prezentująna stronach oferty wycieczek i urlopów. Obecnieokoło 5 proc. Polaków, jak podaje „Rzeczpospolita” 11 ,kupuje wycieczki właśnie w ten sposób. Spowodowałoto w ostatnich latach rozwój e-biur podróży, któresprzedają wycieczki równolegle w sieci oraz w tradycyjnychbiurach (Itaka, Rainbow Tours, Triada). Agencjeturystyczne, takie jak Wakacje.pl, Traveliada.pli Easygo.pl prowadzą sprzedaż wyłącznie przez internet.Biura mają mniejsze koszty utrzymania niż tradycyjnei często dzięki temu tańszą propozycję wypoczynku.e-pracaPoszukiwanie pracy przez internet jest dziś częstymzjawiskiem. Istnieje wiele portali pomagających w znalezieniupracy zarówno dla wysokiej klasy specjalistów, jaki tzw. „szarej strefy”. Strony pomagające w znalezieniuzatrudnienia posiadają wzorce i poradniki dotyczącekoniecznych dokumentów, proponują krótkie kursyz zakresu pierwszych kroków w poszu kiwaniu pracy(np. rozmowy kwalifikacyjnej), oferują pośrednictwow znalezieniu pracy czy pracownika. Internet to równieżmożliwość podjęcia e-pracy – bez wychodzenia z domu.Telepraca doczekała się w polskim sejmie szczegółowychzasad określających jej ramy i reguły poprzeznowelizację Kodeksu pracy 12 . Uregulowanie tej formyaktywności zawodowej odrębnymi przepisami ułatwiapracodawcom zatrudnianie telepracowników i stwarzamożliwość obniżenia kosztów związanych z organizowaniemmiejsca pracy. Osoby zatrudnione mogąnatomiast wykonywać swoją pracę w domu, uzyskującrównocześnie prawo do ubezpieczenia i świadczeńsocjalnych. Są to głównie pracownicy sektora usługfinansowych, graficy komputerowi, księgowi, prawnicy,konsultanci, programiści, architekci, dziennikarze i tłumacze.Taka forma zatrudnienia pozwala także na większąaktywizację zawodową osób niepełnosprawnych,mieszkańców terenów wiejskich czy młodych matek.e-learningW ostatnich latach bardzo dynamicznie rozwijasię również e-learning. Jak pokazuje praktyka, już napoziomie gimnazjum udostępniane są w interneciedodatkowe ćwiczenia, które uczniowie wykorzystujązarówno podczas lekcji, jak i w domu (w ramach pracywłasnej) i które mogą skutecznie wspierać tradycyjnenauczanie. Takie wzbogacenie procesu nauczania jestprzez uczniów odbierane bardzo entuzjastyczniei ma wiele zalet (nadrabianie zaległości w przypadkunieobecności, poszerzenie programu nauczania dlauczniów zdolnych, większa indywidualizacja, możliwośćkonsultacji i kontaktu z nauczycielem poza saląlekcyjną). Im wyższy poziom kształcenia, tym większezastosowanie tej formy nauczania. Wiele wyższychuczelni prowadzi część kursów dla studentów naplatformach e-learningowych.Obecnie w Polsce organizowane są studia podyplomoweprzygotowujące nauczycieli do kształceniana odległość. Zajęcia w 70 proc. odbywają się zdalnie(uczestniczy w nich około 1200 osób) i obejmują swoimzasięgiem prawie całą Polskę (projekt realizowanyjest przez: Uniwersytet Warszawski, UniwersytetWrocławski, Uniwersytet Jagielloński w Krakowie,Uniwersytet im. Marii Curie-Skłodowskiej w Lublinie,Uniwersytet im. Mikołaja Kopernika w Toruniu, Uniwersytetim. Adama Mickiewicza w Poznaniu).9Elektroniczne formularze wniosków wizowych http://evisaforms.state.gov/instructions_Polish.asp.10Film instruktażowy elektronicznej kontroli paszportowej, http://www.dhs.gov/xlibrary/multimedia/usvisit/USVisit_Polish-High.wmv,[20.03.2008].11J. Cabaj, Jak wycieczka, to tylko z Internetu, „Rzeczpospolita” 2007, nr 5/02.12Materiał porównawczy do Ustawy z dnia 24 sierpnia 2007 r. – o zmianie ustawy, Kodeksu pracy oraz niektórychinnych ustaw http://www.senat.gov.pl/k6/dok/opinia/2007/038/m/509.pdf, [20.03.2008].30 e-<strong>mentor</strong> nr 2 (24)


E-obywatel – przezwyciężanie barierStandard kształcenia e-obywateli w PolscePoza rozwijaniem dostępności e-usług, równie ważnejest kształcenie społeczeństwa w kierunku technologiiinformacyjnych. Alfabetyzacja informatyczna osób, którenależą do grup zagrożonych wykluczeniem cyfrowymto wyzwanie dla nauczycieli na szczeblu kształceniadorosłych oraz kadr administracji publicznej.Polskie Towarzystwo Informatyczne wdraża w PolsceEuropejski Certyfikat Umiejętności Komputerowych(ECDL, European Computer Driving Licence), który– na poziomie średniozaawansowanym – potwierdzonyjest niezależnymi i rzetelnymi egzaminami z dziedzinaktywności komputerowej: podstaw technikinformatycznych, użytkowania komputera, edytorówtekstu, arkuszy kalkulacyjnych, baz danych, grafikimenadżerskiej i prezentacyjnej oraz usług w sieciachkomputerowych. Certyfikat ECDL zdobyło do chwiliobecnej ponad 7,5 mln obywateli Europy. Stanowito ponad 1 proc. całej populacji. Program ECDL stałsię także standardem nauczania technologii informacyjnychna większości kierunków studiów wyższychw Polsce. Najnowsze standardy kształcenia 13 wymagająbowiem wprowadzenia treści programowych ECDLna pierwszym roku studiów. Poza tym umożliwiajązwolnienie z zajęć z technologii informacyjnych studentów,którzy posiadają już certyfikat ECDL.W związku z tym wielu nauczycieli realizujeprogram informatyki w gimnazjum czy szkole średniejw oparciu o sylabus ECDL, stwarzając uczniommożliwość zdobycia certyfikatu. W ciągu trzech latuczniowie potrafią swobodnie opanować materiałprzewidziany w certyfikacji. Mają przy tym większąmotywację do nauki.Średniozaawansowany poziom standardu ECDL jestjednak zbyt wysoki i często niepotrzebny dla osób najbardziejzagrożonych cyfrowym wykluczeniem, a więcosób starszych. By móc skorzystać z przedstawionychwcześniej e-usług, wymagane są prostsze umiejętności– bardziej ukierunkowane na tzw. e-uczestnictwo.Wprowadza je i standaryzuje certyfikat ECDL e-Citizen.Obejmuje on trzy bloki umiejętności 14 :! umiejętności podstawowe – podstawy obsługikomputera, pracy w systemie operacyjnym,zarządzania plikami i folderami, a także wykorzystaniaprostych programów (edytora tekstu),przeglądarki internetowej i poczty elektronicznej;! wyszukanie informacji – umiejętność korzystaniaz wyszukiwarek sieciowych, kopiowanie danychz internetu, świadomość zagrożeń oraz dostępdo różnych serwisów (od informacyjnych,poprzez edukacyjne, aż do e-biznesowych);! e-uczestnictwo – umiejętność wykorzystaniaserwisów online w różnych obszarach.ECDL e-Citizen wyznacza poziom niezbędnychumiejętności każdego e-obywatela, ale też urzędnika,pracownika administracyjnego służby zdrowiaczy oświaty, nauczyciela oraz ucznia. Jest przy tymjedynym faktycznie istniejącym w Polsce standardemedukacji e-obywatela.PodsumowanieW Polsce istnieje duża grupa osób zagrożonyche-wykluczeniem. Co więcej, ich grono poszerza się,ze względu na narastający proces starzenia się społeczeństwa.Edukacja i jej standardy są w stanie włączyćte osoby do e-społeczeństwa i zlikwidować bariery cyfrowe.Należy się spodziewać intensywnego rozwojuzastosowania standardu ECDL e-Citizen do aktywizacjiprocesów edukacyjnych przyszłych e-obywateli.Beata Chodacka jest nauczycielem informatyki w Gimnazjum nr 16 w Krakowie. Opracowała autorski programnauczania informatyki dla klas 1–3 gimnazjum, przygotowujący do zdobycia certyfikatu ECDL. Od roku współpracujez Centrum e-Learningu przy AGH. Jest współzałożycielem Akademii Komputerowych Umiejętności, gdzie opracowałaautorskie programy zajęć komputerowych dla dzieci i młodzieży Komputerowe Rodeo oraz Forum Komputerowe. Jestrównież egzaminatorem ECDL, ECDL-Advanced oraz dyrektorem Krakowskiego Centrum Egzaminacyjnego ECDL.Marek Miłosz jest pracownikiem naukowo-dydaktycznym Instytutu Informatyki Politechniki Lubelskiej. Od 1997roku jest z ramienia Polskiego Towarzystwa Informatycznego Ogólnopolskim Koordynatorem ECDL. Zajmuje się problemamiprojektowania, programowania i wdrażania systemów informatycznych, optymalizacją, symulacją procesówi ogólnie pojętymi inżynierskimi zastosowaniami informatyki. Jest autorem, współautorem lub redaktorem ponad350 publikacji naukowych i dydaktycznych (w tym 35 książek) oraz 30 prac naukowo-badawczych i wdrożeniowychz zakresu zastosowań informatyki. Prowadzi zajęcia dydaktyczne z podstaw informatyki, narzędzi informatycznychw rachunkowości i zarządzaniu, inżynierii oprogramowania, zarządzania projektami, sztucznej inteligencji i symulacjiprocesów. Kieruje zespołami realizującymi i wdrażającymi systemu informatyczne.13Rozporządzenie MNiSW z dnia 12 lipca 2007 r., http://www.bip.nauka.gov.pl/_gAllery/26/29/2629/20070712_rozporzadzenie_standardy_ksztalcenia.pdf,[20.03.2008].14www.ecdl.com.pl, [20.03.2008].kwiecień 2008 31


e-edukacja w krajuBadanie eye tracking– jak zwiększać czytelność tekstuw internecieWojciech ChojnackiObserwacje działań użytkowników internetu pokazują,że większość czasu spędzają oni, przeszukując wzrokiemtekst stron w celu odnalezienia określonych informacji.Zdając sobie sprawę, że tekst na ekranie czytamy około20 proc. wolniej niż tekst drukowany, można zauważyć,że odpowiednie zabiegi w stronę czytelności mogą miećniebagatelne znaczenie dla ergonomii strony internetowej.Badanie eye trackingowe przeprowadzone przez agencjęe-biznesową Symetria miało za zadanie sprawdzić, którez metod formatowania tekstu wpływają na łatwośćodszukiwania w nim kluczowych informacji. Niektórez wyników zaskakują i stawiają pod znakiem zapytaniapewne konwencje.Uznane zasady czytelnościSpecjaliści w badaniu ergonomii od dawna powtarzają,że czytanie informacji z ekranu komputera różnisię znacznie od czytania z kartki papieru. Do tej porypowstały już dość szczegółowe reguły czytelności,które są rekomendowane np. do pisania tekstów dlastron internetowych. Wpływają one przede wszystkimna użyteczność stron o dużej zawartości tekstu, takichjak artykuły, opisy czy regulaminy.Podczas przygotowywania badania eye trackingowego,część zasad pisania dla internetu uznano za dobrąpraktykę i wykorzystano, by zbadać inne metody. Jakozałożenia właściwego formatowania tekstu w sieciprzyjęto:! ograniczoną liczbę znaków w wersie (70–80znaków),! fakt wyróżniania odnośników z tekstu (choćbyło to realizowane różnymi metodami),! stosowanie wystarczająco dużej czcionki.Optymalna liczba znaków w linii nie jest w literaturzeustalona jednoznacznie. Światowe badaniadowodzą, że o ile użytkownicy czytają najszybciejw przypadku długich linii (75–100 znaków), to preferująjednak krótsze wersy (nawet do 50 znaków) 1 .Pojawia się tu, spotykany w badaniach User Experience,dysonans między wydajnością a zadowoleniem.Na potrzeby przeprowadzanej obserwacji użyto liniipośredniej długości.Wyróżnianie odnośników w tekście jest problemem,którego twórcy serwisów są coraz bardziejświadomi. Rekomendacja utrzymywania stałego i odróżniającegoformatowania hiperłączy właściwie nieznajduje kontrargumentów, zważywszy, że w wieluserwisach odnośniki w treści są głównym narzędziemnawigacji. Nawet badania bez użycia eye trackingupokazują, że szukanie niewyróżnionego odnośnikawymaga żmudnego procesu wskazywania kolejnychfragmentów tekstu kursorem myszy w nadziei natrafieniana aktywny element. Trwają jednak spory, jaknajlepiej wyróżniać odnośnik i to właśnie stało sięjednym z zagadnień badania.Wielkość czcionki ma bezpośredni wpływ naczytelność tekstu, pozostając jednocześnie w powiązaniuz liczbą znaków w linii. Dobrą praktykąjest używanie relatywnej wielkości czcionki, któraoznacza elastyczność i pozwala na jej dostosowywaniedo aktualnej rozdzielczości ekranu użytkownika.Na potrzeby badania wielkość czcionki została zdefiniowanaw szablonie CSS jako „small”, co spowodowałojej wyświetlanie w tej samej wielkości, jakjest w popularnej Wikipedii.Dzięki zastosowaniu powyższych zasad otrzymanoczytelny pod wymienionymi względami materiałbadawczy, dzięki czemu możliwe było naniesienie naniego zmian w zakresie zagadnień, które wybranodo badania.Metoda badawczaWykorzystując eye tracking w ramach badania,sprawdzono, jak różne metody formatowania tekstuwpływają na łatwość odnajdowania w nim informacji.Przy udziale dwunastu użytkowników przetestowanoefekty używania w tekście takich zabiegów, jak:! tytuły i śródtytuły,! wypunktowane listy,! podkreślone odnośniki.1Research-based web design & usability guidelines, U.S. Department of Health and Human Services, Waszyngton 2006,s. 56.32 e-<strong>mentor</strong> nr 2 (24)


Badanie eye tracking – jak zwiększać czytelność tekstu...Zadaniem dla uczestników było odnalezienie wysokościkosztu wysyłki w obrębie stron informacyjnychhipotetycznego sklepu internetowego. W celachbadawczych zachowano maksymalną surowość przygotowanychstron – składały się one prawie wyłączniez odpowiednio sformatowanego tekstu. Z uwagi nachęć <strong>zachowania</strong> prostoty, styl graficzny stron byłwzorowany na Wikipedii.Scenariusz badania zakładał, że użytkownicy napierwszej odwiedzanej stronie powinni kliknąć w tekścieodnośnik „Koszty wysyłki”, a następnie odnaleźćszukaną wartość na kolejnej stronie. Wszyscy użytkownicywidzieli tę samą, ale różnie sformatowanątreść.Uzyskane wyniki częściowo potwierdzają testowanezasady, lecz również zaskakują. O ile potwierdziłasię wartość wypunktowanych list i tytułów, mało definitywnesą wskazania na temat sposobu oznaczaniaodnośników. Szczególnie ciekawe wnioski dotyczyłystosowania śródtytułów.Tytuł strony kołem ratunkowymTytułowanie dokumentów, czyli praktyka znanaw świecie rzeczywistym właściwie od setek lat,w internecie bywa czasem świadomie lub nieświadomiepomijana. Twórcy witryn uznają, że logotypserwisu i oznaczenia głównej nawigacji wystarcządo zorientowania się w położeniu w serwisie i rezygnująz podawania nazwy aktualnie odwiedzanejstrony. Wydaje się, że motywacją do takiego działaniajest to, aby właściwa treść strony pojawiałasię wyżej, zamiast mało przydatnego elementu.Czy tytuł można jednak uznać za mało przydatnyelement? (rys. 1).Taki stan rzeczy istnieje jednak pod warunkiem, żeużytkownik faktycznie znajduje to, czego szukał.Jeden z badanych, którzy spojrzeli na tytuł na drugiejstronie, uczynił to dopiero po chwili zapoznawaniasię z tekstem, nie znajdując szukanej informacji. Tytułposłużył więc jako sposób upewnienia się, czy nienastąpiła pomyłka w nawigacji. Gdyby go nie było,istnieje duża szansa, że użytkownik uciekłby ze stronyi szukał gdzie indziej.Można stwierdzić, że tytuły są tym bardziejprzydatne, im bardziej zdezorientowany czuje sięużytkownik. Przy płynnych przejściach od strony dostrony i doskonałej interakcji, ich wartość znaczniemaleje. Pozostaje jednak pytanie czy jakikolwiek twórcaserwisu może być pewny, że interakcja przebiegatak pomyślnie.Wypunktowane listy znacznie ułatwiająszukanie informacjiSpecjaliści ds. użyteczności często rekomendująużycie wypunktowanych list wymienianych elementówzamiast układania długich, rozbudowanychzdań. Z drugiej strony logika mogłaby podpowiadać,że książkowy sposób formatowania tekstu w postaciciągłych paragrafów gwarantuje pełne wykorzystaniedostępnego miejsca przez fragment tekstu, podczasgdy wypunktowania mogą prowadzić do wydłużaniastrony z tekstem, a w wyniku powodować utrudnieniaw przeglądaniu (rys. 2).W celu rozstrzygnięcia tej kwestii (w ramachbadania) informacja o koszcie wysyłki została częściużytkowników przedstawiona w postaci zdaniaumieszczonego w tekście, a części w postaci wypunktowanejlisty.Rysunek 1. Często zauważany tytuł na stronie rozpoczynającej badanie oraz ignorowany na następnejŹródło: opracowanie własneW trakcie badania sprawdzono, czy użytkownicyfaktycznie korzystali z tytułów stron, patrząc na nie.Okazuje się, że tytuły nadawane stronom są szczególnieprzydatne przy wejściu na pierwszą stronę serwisui pozwalają zorientować się w aktualnym położeniu.Tylko jeden użytkownik nie spojrzał na tytuł pierwszejwyświetlonej strony. Pozostałe osoby zawsze jednoz pierwszych spojrzeń kierowały właśnie na tytuł.Inna sytuacja miała miejsce po kliknięciu na odnośniki przejściu na kolejną stronę – jedynie trzy osobyzauważyły na niej tytuł. Można tu zauważyć typowyciąg myślenia: skoro kliknąłem na odnośnik, to wiemgdzie przeszedłem i nie muszę się o tym upewniać.Powyższa różnica sposobu prezentacji miała potężnyefekt dla wydajności. Użytkownicy odnajdywaliwłaściwą liczbę średnio ponad 60 proc. szybciej, gdyznajdowała się ona jako jeden z punktów listy, niżgdy była ukryta w tekście. Ponadto, potrzebowalido tego ponad dwa razy mniej zatrzymań wzroku nastronie. Zauważali to również sami użytkownicy w komentarzachpo badaniu. Czytelność, jaką uzyskujetekst po rozbiciu go do postaci listy, przeważała nadewentualnymi minusami. Użytkownikom, zmuszonymdo odszukiwania informacji w treści akapitu, zdarzałosię ją przeoczyć, czego nie odnotowano w bardziejczytelnej wersji tekstu.kwiecień 2008 33


e-edukacja w krajuRysunek 2. Szybkie odnalezienie szukanej informacji na liście (po lewej) oraz długie poszukiwania w zbitym tekście(po prawej)Źródło: opracowanie własnePodkreślanie linków nie ma wpływu nawydajnośćNajczęściej stosowanym sposobem wyróżnieniaodnośników jest kolor, wciąż trwają jednak spory,czy takie działanie jest wystarczające. Orędownicydostępności i badacze ergonomii silnie popierajądodatkowo podkreślenie jako sposób przyjęty przezlata w internecie i wzmacniający dostępność serwisu2 . Z kolei graficy i eksperci z dziedziny typografiiwskazują na negatywne estetyczne konsekwencjepodkreśleń, szczególnie w przypadku stron bogatychw odnośniki.Badanie Symetrii nie podważyło, ale i nie potwierdziłoznaczenia podkreśleń dla łatwości odnajdowaniawzrokiem odnośników w tekście. W obu przypadkachpotrzebny czas i liczba zatrzymań wzroku na stroniebyła podobna, co oznacza, że kolor był wystarczającymsposobem wyróżnienia odnośnika.Trzeba tu jednak zaznaczyć dwa ważne fakty.Badane strony były wyjątkowo oszczędne w kolory,co sprawiało, że odnośniki wyraźnie odróżniały sięod reszty elementów – w przypadku większego zastosowaniabarw sytuacja mogłaby się diametralniezmienić. Szczególnie problematyczne są tu sytuacje,kiedy kolor użyty dla oznaczania odnośników pojawiasię na stronach również w innym kontekście, tracąctym samym swój jednoznaczny charakter.Jako drugie zastrzeżenie należy przypomnieć jednąz głównych zasad dostępności treści w internecie,mówiącą, że błędem jest poleganie tylko na kolorzeprzy przekazywaniu informacji 3 . Podkreślenia odnośnikówpokazują więc prawdziwą wartość w przypadkuosób z trudnościami rozróżniania kolorów, którew przeciwnym razie nie byłyby w stanie ich dostrzec.Stosowanie podkreśleń wpływa więc na poprawędostępności serwisu. Twórcy, dla których dostępnośćjest celem nadrzędnym, powinni zdecydowanie jewykorzystywać.Śródtytuły w tekście – utrudnienie czyzachęta do czytania?Zadaniem śródtytułów w dłuższym tekście jestdzielenie go na mniejsze fragmenty i skuteczne informowanieużytkownika, o czym mówi każdy z nich.Z opracowań tematu wynika, że dzięki nim „ścianatekstu” zmienia się w ustrukturyzowany dokument,dzięki któremu szybciej i łatwiej można odnajdowaćpotrzebne informacje 4 .Paradoksalnie, analiza wyników badania wskazałarzecz przeciwną. Użytkownicy, którzy widzielitekst opisany przy pomocy śródtytułów, spędzali naszukaniu w nim właściwego odnośnika więcej czasui dokładniej mu się przyglądali.Ten problem ma swoje wytłumaczenie. Widzącnieopisany, długi tekst, badani nie próbowali się z nimzapoznawać, a jedynie przewijali go szybko, zdającsię na przypadkowe odnalezienie informacji. Sytuacjabyła inna, gdy widoczne były śródtytuły – użytkownicyinstynktownie oceniali, że warto się z nimi zapoznać,a na dodatek dokładniej wczytywali się w te fragmentytekstu, które wydawały się mieć związek z tematem.W rezultacie docierali do wyróżnionego odnośnikanieco wolniej, ale pewniej niż pozostali (rys. 3).Wniosek jest następujący: wiedząc, jakie informacjena stronie są najważniejsze dla użytkowników,można je po prostu wyraźnie wyeksponować i liczyć,że użytkownicy do nich trafią. W przypadku bardziejskomplikowanych stron warto jednak zastosowaćśródtytuły i kierować użytkowników krok po krokudo celu (rys. 4).2J. Nielsen, Alertbox: Design Guidelines for visualizing links, www.useit.com/alertbox/20040510.html, [10.03.2008].3W. Chisholm, G. Vanderheiden, I. Jacobs, Web Content Accessibility Guidelines 1.0, www.w3.org/TR/WCAG10/#gl-color,[10.03.2008].4Research-based web design & usability guidelines, U.S. Department of Health and Human Services, Waszyngton 2006,s. 79.34 e-<strong>mentor</strong> nr 2 (24)


Badanie eye tracking – jak zwiększać czytelność tekstu...Rysunek 3. Chaotyczne, pojedyncze spojrzenia w przypadku braku śródtytułów(przykład po lewej) oraz bardziej systematyczny sposób czytania (po prawej)Rysunek 4. Ścieżka wzroku użytkownikaśledzącego kolejne śródtytułyŹródło: opracowanie własneŹródło: opracowanie własnePodsumowaniePrzeprowadzone badanie przyniosło interesujące,choć nie zawsze definitywne wnioski na temat zapoznawaniasię z tekstem przez użytkowników internetu.Podkreślanie odnośników i stosowanie śródtytułóww przyjętych w badaniu warunkach nie przyniosłopoprawy prędkości odszukiwania informacji, choćobie te metody mają inne zalety. Z kolei używaniewypunktowań przyspiesza przeglądanie informacji,jednak ich nagminne stosowanie może zniwelowaćefekt. Potwierdza to fakt, że w tak złożonych dziedzinachnauki, jak kognitywistyka czy ergonomia, rzadkomożna mówić o prawach absolutnych – każda decyzjadotycząca formowania interfejsu i przekazu powinnabyć podejmowana po zbilansowaniu korzyści i strat.BibliografiaResearch-based web design & usability guidelines, U.S.Department of Health and Human Services, Waszyngton2006.Autor jest absolwentem specjalności ElektronicznyBiznes na Akademii Ekonomicznej w Poznaniu, gdzieobronił pracę magisterską Ensuring website usabilitythrough design process. Nad zagadnieniem użytecznościWWW pracuje w agencji e-biznesowej Symetria,projektując serwisy internetowe i prowadząc badaniaz użyciem eye trackingu.NetografiaJ. Nielsen, Alertbox: Design Guidelines for visualizing links,www.useit.com/alertbox/20040510.html, [10.03.2008].W. Chisholm, G. Vanderheiden, I. Jacobs, Web ContentAccessibility Guidelines 1.0, www.w3.org/TR/WCAG10/#glcolor,[10.03.2008].PolecamyIndexCopernicus InternationalIndexCopernicus to ekskluzywny serwis społecznościowyprzeznaczony dla naukowców założonyprzez dr. Marka Graczyńskiego. Narzędzie pomagaw znalezieniu osób o podobnych zainteresowaniachbadawczych, wspiera i promuje łączenie się w wirtualnegrupy, które mogą wspólnie – w środowiskumiędzynarodowym – pracować nad projektami. Serwisma już 300 tysięcy użytkowników, w tym 2,5 tysiącaPolaków. Aby zarejestrować się do niego, należyprzejść ścisłą weryfikację, w czasie której ocenianajest działalność badawcza, akademicka oraz administracyjnapotencjalnego członka społeczności.Więcej informacji na: http://www.cisi.orgkwiecień 2008 35


e-edukacja w krajuEdukacja w służbie marketingu,czyli jak nauczyć klienta mądrego kupowania,wykorzystując internet jako mediumPiotr Lewandowski, Tomasz ChudakCzy sztuką było wynalezienie koła? Z pewnością,szczególnie z perspektywy XXI wieku, kiedy towynalazczość sprowadza się do tworzenia nowychkombinacji z tego, co już istnieje, a pomysły prostei innowacyjne zarazem są bardzo atrakcyjne rynkowo.Podczas gdy sztuką można było nazwać wynalezieniekoła, już sama jego produkcja nie napotykała na znacząceprzeszkody. Można powiedzieć, że i z popytemnie było większego problemu – wystarczy rozejrzećsię dookoła. Wniosek zatem jest następujący – nawetjeżeli dany produkt czy usługa rewolucjonizują rynek,to szybko przestają być definiowane jako wynalazek.Dzieje się tak między innymi dzięki szybko rosnącemupoczuciu identyfikacji z wynalazkiem, którywznieca w nas podświadome przekonanie o jegowspółautorstwie. Czy ktoś z nas myśli z wdzięcznościąo Grahamie Bellu, podczas rozmowy telefonicznejz niewidzianym od lat przyjacielem? Wręcz przeciwnie,telefon pojmowany jest jako własność społeczna,a w dobie telefonii komórkowej jako rzecz, bez którejnie możemy prawidłowo funkcjonować.Równie nieistotny – z punktu widzenia zapadaniaw świadomość ludzką – jest sam proces produkcji.Polega on bowiem na [...] użytkowaniu różnego rodzajusurowców, materiałów, wyposażenia technicznegooraz usług dla wytwarzania produktów zaspakajającychpotrzeby i wymagania nabywców 1 . Jest to trafna definicja,jednak nie ma ona przełożenia na postrzeganieproduktu. Czy komuś, oprócz małych dzieci i wynalazcówz powołania, przychodzi do głowy pytanie: skądwzięła się mysz komputerowa, jak i przez kogo zostaławyprodukowana i czy zachodzi związek słowotwórczymiędzy myszką a m@łpą?Co więcej, gotowy do sprzedaży produkt nie jesttym, co ma dla nas realną wartość, pomimo faktu,że ktoś w sklepie przykleił do niego cenę i położyłna półce. Zgodnie z prawami gospodarki rynkowej,[...] konsumenci będą faworyzować te produkty, któresą szeroko dostępne i mają niską cenę 2 . Zgadza się, alepod jednym wszakże warunkiem – dowiedzą sięoni, że dany produkt w ogóle istnieje i wyłowią goz konsumpcyjnego chaosu. Ludzie żyjący w latach70. minionego wieku, w warunkach socjalistycznejgospodarki niedoboru 3 , nie stali przed dylematamipodejmowania konsumenckich decyzji. Kupowaliwszystko i w ciemno. Obecnie, w obliczu uginającychsię pod ciężarem półek w centrach handlowych,wybór jest podstawowym problemem, a gospodarkaniedoboru przeskakuje o dwa stopnie w ewolucjigospodarczej (pomijając utopijne zrównoważeniepodaży i popytu) i wskakuje na zasłużone miejsce nagrzbiecie kozy Amaltei. W dzisiejszych czasach niesztuką jest wymyślić czy wyprodukować, sztuką jestdobrze sprzedać i nakłonić klienta, by przez długi czaspozostał wierny swojemu wyborowi.Do złamanego rogu kozy Amaltei zmuszani jesteśmyzaglądać każdego dnia. Co tam widzimy? Chaos,nadmiar, obfitość, oszałamiający melanż form i kolorów.Co gorsza, firmy przykładają róg do ust i wykrzykująnam prosto do ucha: U nas najtaniej! Najnowszaoferta! Mega promocja! Nie dla idiotów! W tym bałaganiekomunikacyjnym zamykamy oczy i – w warunkachzróżnicowanej oferty – dokonujemy nie do końcaświadomego wyboru, wskazując „chyba najlepszy”odtwarzacz mp3 czy aparat cyfrowy. Paradoksalnie,w erze nadmiaru często zachowujemy się podobnie,jak zachowywały się 20–30 lat temu osoby w obliczuniedoboru.Opisanej powyżej sytuacji winien jest szum informacyjnytowarzyszący takim zjawiskom, jak wyboryparlamentarne czy marketing. W warunkach rynkowychXXI wieku czytelność funkcjonalna produktu jestskutecznie zacierana, co wbrew pozorom nie uprzykrzażycia tylko nam – konsumentom. W warunkachwszechobecnego szumu coraz większym wyzwaniemdla firm staje się pozyskanie klienta. Dodatkowo1T. Sztucki, Encyklopedia marketingu, Placet, Warszawa 1998.2P. Kotler, Marketing. Analiza, planowanie, wdrażanie i kontrola, Gebethner & S-ka, Warszawa 1994.3Pojęcia tego po raz pierwszy, w kontekście przemian ustrojowych i gospodarczych w krajach Europy Środkowo-Wschodniej, użył ekonomista węgierski J. Kornai, słynny na całym świecie dzięki wydanej w 1980 r. książce Economicsof shortage. Polskie wydanie: Niedobór w gospodarce, Państwowe Wydawnictwo Ekonomiczne, Warszawa 1985.36 e-<strong>mentor</strong> nr 2 (24)


Edukacja w służbie marketingu...proces ten komplikuje się w obliczu wielowymiarowościnałożonych na siebie kanałów komunikacyjnych(czego przykładem jest internet).Umberto Eco 4 zauważa, że poprzez nałożenie nasiebie zanieczyszczonych szumem kanałów komunikacyjnych,tworzy się tzw. „biały szum komunikacyjny” 5 ,obserwowany także w akustyce i optyce 6 . Szukając„białego szumu” w obrębie kanałów komunikacyjnych,na pewnym etapie naszej wędrówki stajemy na środkuwielkiego korytarza z niezliczoną liczbą drzwi. Nakażdym ze skrzydeł widnieje tabliczka: prasa, telewizja,radio, kino, teatr, ulica, sztuka, kultura, biologia,chemia, historia, matematyka, językoznawstwo… Zatymi drzwiami znajdują się kolejne korytarze z przytłaczającąliczbą wejść. Po otwarciu pierwszych drzwi,wpadamy w wir. Nie jest to jednak „biały szum” – conajwyżej „brązowy” lub „różowy” 7 . Tak wyglądał światminionego tysiąclecia, który dążył do uporządkowaniai hierarchizacji zjawisk, tworząc gmach przepełnionyoznakowanymi drzwiami. Do jednego z korytarzy zostaławrzucona również reklama i wszystkie procesyz nią związane. Dopiero internet, wdzierając się jakbluszcz do wewnątrz, odmienił każdy pokój, na wieludrzwiach dopisując przymiotnik: sieciowa/y (jak tobyło chociażby w przypadku gospodarki). W ten sposóbna poszczególne kategorie, posiadające odrębnekanały komunikacyjne, nałożył się szum nadrzędnyzawierający składowe wszystkich szumów, tworzącw ten sposób „biały szum” 8 .Prawdziwa konkurencja między firmami koncentrujesię obecnie nie na udziale w rynku, tylko na walceo zauważalność i słyszalność we wspomnianym „białymszumie”, a w konsekwencji na walce o klientów.Aby zainteresować potencjalnych odbiorców, firmy,oprócz niestandardowego sygnalizowania swojejobecności, muszą zaoferować im doświadczenia, któresą natychmiastowe, intensywne i ciągłe 9 . Dlategoteż programy marketingowe muszą znacznie wykraczaćpoza kampanie reklamowe i obejmować takżetechniki, które dostarczą potencjalnym klientom owedoświadczenia oraz zachęcą ich samych do nawiązaniabliższej relacji z firmą.Aby nawiązać ową więź, musimy przede wszystkimbyć doinformowani. Wielkość popytu na informację jestobecnie nie do zmierzenia, natomiast podaż informacjirzadko koreluje z wymaganiami odnośnie jakości, cow konsekwencji powoduje, że zostaje ona odrzucanalub pomijana. Następstwem tego zjawiska jest społeczeństwospragnione wiedzy i posiadające jej nieograniczonezasoby na wyciągnięcie ręki 10 . Rozwój nowychtechnologii, w tym głównie internetu, doprowadziłdo gwałtownego zmniejszenia kosztów komunikacji.Przesyłanie oraz wyszukiwanie informacji jeszcze nigdynie było tak proste i tanie, co nie pozostaje bez wpływuna zwielokrotnienie zjawiska „białego szumu”. Z jednejstrony sieć daje klientom większe możliwości porównywaniaofert i pozwala znaleźć tę najlepszą. Z drugiejzaś oferuje firmom nowe narzędzia, które działając nazasadzie eliminacji szumu informacyjnego, pozwalająna dotarcie do klienta, uświadomienie mu istnieniadanego produktu, a następnie przekonanie go do podjęciadecyzji o jego zakupie. Trzeba zaznaczyć, że mówiąctu o narzędziach, nie mamy na myśli klasycznychnośników reklamy internetowej (tj. banerów, mailingu,itp.), gdyż wydają się one generować szum w interneciei w konsekwencji wielu internautów z założenia ignorujeich przekaz (przynajmniej w sferze świadomej) 11 .Dlatego też klienci, aby podjąć trafną decyzję, corazczęściej zmuszani są do dokształcania.Coraz więcej przedsiębiorstw stawia na zaspokajaniegłodu wiedzy poprzez podnoszenie kwalifikacjiswoich pracowników. Tak zwane organizacje uczącesię nastawione są na zwiększanie przewagi konkurencyjnejpoprzez zdolność do uczenia się szybciejniż robią to rywale 12 . Fakt pojawienia się tego typuorganizacji wytyczył szlak dla kolejnego zjawiska,4U. Eco, Nieobecna struktura, KR, Warszawa 1996.5„Biały szum”: szum równomierny w widmie mocy tj. zawierający składowe wszystkich częstotliwości (Encyklopedia, PWN,t. 6, Warszawa 1997).6W optyce jest to białe światło, będące wynikiem nałożenia na siebie wszystkich barw.7„Szum brązowy” i „różowy” są szumami o regularnej częstości.8Można przypuszczać, że pejoratywne nacechowanie słowa szum jest wynikiem przeniesienia znaczeniowego z jegosynonimu – słowa hałas, który kojarzony jest z kolei z chaosem, a tam gdzie zaczyna się chaos, kończy się klasycznanauka (James Gleick).9J. Ridderstrale, K. Nordstrom, Funky biznes. Taniec talentu z kapitałem, WIG Press, Warszawa 2001.10Głód wiedzy rośnie nierównomiernie – pokazują badania, zarówno te przeprowadzone lokalnie, jak i na poziomiecałego kraju. W 2006 roku na Lubelszczyźnie w ramach projektu Kapitał Intelektualny Lubelszczyzny na pytanie dotyczącezainteresowania podnoszeniem kwalifikacji zawodowych respondenci (próba na 1100 mieszkańców) w większościprzypadków odpowiadali negatywnie: 35 proc. badanych, przy 23 proc. pełnego zainteresowania, za: A. Wodecki,Kapitał Intelektualny Lubelszczyzny, Wydawnictwo UMCS, Lublin 2007. W kontekście ogólnopolskim, według sondażuIpsos „Szkolenia w Polsce” przeprowadzonego na zlecenie Fundacji Obserwatorium Zarządzania i NowoczesnejFirmy, wśród osób indywidualnych na reprezentatywnej losowo-kwotowej próbie 1005 Polaków w wieku powyżej15 lat i więcej, 45 proc. ankietowanych wyraziło chęć poszerzania swoich kwalifikacji i umiejętności. W porównaniuz ostatnim badaniem zrealizowanym przez Ipsos 6 lat temu, odsetek ten wzrósł o połowę (w 2000 roku było to31 proc. badanych, delta jest więc wyraźnie widoczna), http://www.cxo.pl/news/90671.html [05.10.2007].11Techniki te opierają się na „bombardowaniu” przekazem reklamowym w postaci wyskakujących okien, animowanychbanerów, czy niechcianej przesyłki określanej mianem „spamu”. Treści, które niosą te nośniki są zorientowane ściślesprzedażowo. Mają zainteresować, a następnie zachęcić do podjęcia natychmiastowej akcji (kupna, rejestracji, itp.).Niestety, taki przekaz jedynie wzmaga u potencjalnych odbiorców uczucie chaosu informacyjnego.12P.M. Senge (red.), Piąta dyscyplina. Materiały dla praktyka, Oficyna Ekonomiczna, Kraków 2002.kwiecień 2008 37


e-edukacja w krajuu podstaw którego legła eliminacja egoistycznego zaimkazwrotnego „się”. W wyniku tej redukcji mamy doczynienia z organizacjami uczącymi – zarówno siebie,jak i swoich klientów. Chęć dzielenia się wiedzą jestw tym wypadku realizowaniem strategii marketingowej,której sukces opiera się na zapraszaniu do stołukażdego „głodnego” klienta. Dodatkowo realizowanejest to w nieformalnej atmosferze, co sprawia, że czujemysię bardziej swobodnie. Dzięki temu zabiegowi,oprócz zrealizowania potrzeby pozyskania wiedzy,zaspokajane są inne oczekiwania – afiliacji, szacunku,uznania oraz samorealizacji. W konsekwencji zwiększasię prawdopodobieństwo zakupu produktu tejmarki, której jesteśmy wdzięczni za zaproszenie dobiesiady edukacyjnej i której bardziej ufamy, przez cowzrasta nasze poczucie bezpieczeństwa. W związkuz tym firmy coraz częściej podejmują działania, którez jednej strony opierają się na zgodzie klientów naotrzymywanie informacji reklamowych, z drugiej zaśmają edukować ich w zakresie korzystania z oferowanychusług i produktów. Działania te łączą w sobietechniki zarówno permission marketing 13 , jak i educationalmarketing. Jeszcze raz należy podkreślić, że wiedza,którą dzielą się firmy jest konkretna, czyli pozbawionaszumu i przekazywana w sposób nieformalny, czylinienarzucający sztywnych ram związanych z tradycyjniepojmowanym procesem uczenia się (edukacjaprzez rozrywkę, tzw. edutainment). Idąc tym tropem,edukację nieformalną należy uznać za jedną z podstawowychfunkcji społeczeństwa informacyjnegoi istotną funkcję marketingową.W dalszej części opracowania zaprezentowanezostały dwa godne uwagi trendy związane z pozyskiwaniemklienta. Są to strategie realizowane poprzezsprawną redukcję lub kanalizację białego szumu,a także wykorzystanie edukacyjnej funkcji internetui zaspokajanie głodu wiedzy klientów w realiach gospodarkisieciowej.Jak już wspomniano, edukowanie klientów możezmienić sposób ich <strong>zachowania</strong>, chociażby poprzezzaspokojenie potrzeb, niekoniecznie konsumpcyjnych.Internet oferuje niezbędne narzędzia, któreumożliwiają firmom przeprowadzenie skutecznychkampanii edukacyjnych. Poniżej przedstawionezostały dwa takie narzędzia, tj. firmowe wirtualnekampusy 14 oraz firmowe blogi.Firmowe wirtualne kampusyKluczem do sukcesu kampanii marketingowej opierającejsię na edukowaniu klientów jest rozpoznanieich potrzeb. Informacje, które firmy chcą przekazaćklientom, muszą być zaprezentowane w sposób zabawnyi pomysłowy. Należy pamiętać, że im bardziejzaangażowany będzie klient, tym bardziej skłonnyzaufać oferowanym przez firmę produktom. Jednakżedziałania te muszą być podejmowane z rozwagą. Bardzołatwo można ulec złudzeniu, że jedyne, co trzebazrobić, to zaoferować klientom rozrywkowe treści.Niestety, ale takie podejście często okazuje się nieskuteczne,co więcej, może nawet działać na szkodę firmy.Dzieje się tak w przypadku, gdy forma bierze góręnad treścią, która jest albo zbyt oczywista albo zbytprotekcjonalna. Firma decydując się na taką kampanię,musi najpierw dowiedzieć się, o czym chcieliby byćpoinformowani ich potencjalni odbiorcy. Następniepowinna odpowiednio dopasować przekaz – jest tonic innego jak eliminacja szumu informacyjnego. Jeżeliistnieją kluczowe cechy naszego produktu, o którychkonsumenci mogą nie wiedzieć, to jest dobra okazja,aby obok kampanii kreatywnej prowadzić kampanięedukacyjną.Poniżej opisane zostały cztery sposoby, którepozwalają uczynić kampanię edukacyjną bardziejczytelną, pozbawioną szumu i zarazem atrakcyjnądla odbiorców: 151. Upraszczaj. Pomimo faktu, że klienci mająpotrzebę uczenia się, nie chcą się czuć jakbyuczęszczali do szkoły. Należy unikać zbyt dużejilości szczegółowych informacji;2. Pamiętaj o zabawie. Ludzie lubią, gdy naukaprzybiera formę zabawy. Gry, quizy, konkursymogą zarówno informować, jak i angażowaćpotencjalnych odbiorców;3. Wprowadź interaktywne elementy. Najlepszekampanie edukacyjne pozwalają konsumentomwchodzić w interakcje z innymi osobami. Tworzyto emocjonalną więź, która może sprawić,że klienci staną się bardziej lojalni wobec danejmarki;4. Wskaż nagrodę. Należy powiedzieć klientom,dlaczego prezentowane informacje mogą przynieśćim korzyści, a następnie powiązać cechyproduktów z powyższym korzyściami.Aby unaocznić opisywane wyżej procesy, zostałaprzeprowadzona analiza przypadku firmowego wirtualnegokampusu: Sony 101 (www.sony101.com) 16 .ProblemSony Electronics Inc., jeden z największych producentówsprzętu audio i wideo na świecie, podobniejak większość znanych firm, znaczną część swoichdziałań marketingowych koncentrował wokół reklamyoraz budowania świadomości marki. Jednakże istniałapoważna luka pomiędzy tymi działaniami, a najbardziejznaczącą fazą sprzedaży – fazą podejmowaniadecyzji o zakupie. Sony potrzebowało nowego podejścia,które angażowałoby potencjalnych klientówi prowadziło ich przez cały proces sprzedaży, aż dopodjęcia decyzji o zakupie danego produktu.13Termin ten został po raz pierwszy użyty przez Setha Godina w książce pod tytułem Permission Marketing, SIMON& SCHUSTER, Nowy Jork, 1999.14Można się także spotkać z określeniami: wirtualne uniwersytety, cyfrowe uniwersytety, centra szkoleniowe.15Tamara E. Holmes, School Your Customers, ANA / The Advertiser, sierpień 2006.16Analiza przypadku została opracowana na podstawie materiałów firmowych Powered Inc., 2007.38 e-<strong>mentor</strong> nr 2 (24)


Edukacja w służbie marketingu...RozwiązanieTak zrodził się pomysł na Sony 101, wirtualnyuniwersytet, który oferuje klientom darmowe elektroniczneszkolenia zorganizowane wokół czterechkampusów: Komputer osobisty, Domowa rozrywka,Fotografia cyfrowa oraz Osobiste innowacje. W ramachkażdego kampusu organizowanych jest odtrzech do pięciu szkoleń miesięcznie, do którychzarejestrowany uczestnik ma całodobowy dostęp.Każde szkolenie zawiera atrakcyjnie przygotowanemateriały, oferuje możliwość wymiany doświadczeńz innymi uczestnikami szkolenia oraz zapewnia dostępdo konsultacji z ekspertami w danej dziedzinie.Przykładowe tematy szkoleń to:! Ustawienia telewizora wysokiej rozdzielczości(HDTV) w celu osiągnięcia najlepszej jakościobrazu;! Wprowadzenie do fotografii cyfrowej;! Zarządzanie cyfrową muzyką oraz fotografiamina komputerze osobistym;! Grafika komputerowa dla amatorów.Przed zapisaniem się na wybrany kurs każda osobamoże zapoznać się z informacją dotyczącą tematykiszkolenia, jego celami oraz umiejętnościami, jakiezdobędzie po ukończeniu. Dostępna informacjaobejmuje także wymagania wobec potencjalnychuczestników oraz szczegółowe tematy lekcji, którebędą poruszane w ramach kursu. Każde szkolenieprowadzi ekspert, którego profil jest umieszczonyprzy opisie szkolenia. I najważniejszy element(z punktu widzenia Sony) – krótki opis produktów,które będą przydatne w trakcie szkolenia, wraz z odnośnikamido sklepu internetowego, gdzie można jebezpośrednio kupić.RezultatySony 101 bardzo szybko stał się kluczowym elementemprogramu marketingowego całego przedsiębiorstwa.Kursy oferowane w ramach tego serwisusą uznawane za pewne źródło informacji na tematproduktów firmy Sony, zarówno przez potencjalnychklientów, którzy dopiero stoją przed decyzją zakupujakiegoś wyrobu, jak i przez aktualnych użytkowników,którzy chcą lepiej wykorzystywać możliwościposiadanych produktów.Poniżej przedstawione zostały dane, które najlepiejprezentują sukces tego przedsięwzięcia:! 20 proc. użytkowników Sony 101 zakupiło produktfirmy Sony,! użytkownicy spędzają średnio dwie godzinyw ramach danego kursu, ucząc się korzystaniaz produktów firmy Sony,! 94 proc. użytkowników jest zadowolonych zeszkoleń, w których brało udział,! 87 proc. użytkowników chętnie poleci serwisSony 101 swoim przyjaciołom.Poniżej zaprezentowane zostały odnośniki dostron prezentujących rozwiązania innych firm, któreodniosły sukces na polu marketingu edukacyjnego,wdrażając firmowe wirtualne kampusy:! NBC Universal – iVillage: http://ilearn.ivillage.com,! Procter & Gamble: http://www.pgvirtualcampus.com,! HP Learning Center: http://h30187.www3.hp.com,! General Mills: http://www.eatbetteramerica.com.Firmowe blogiTermin blog odnosi się do internetowych dzienników,na których autor umieszcza datowane wpisy.Blog posiada system archiwizacji wpisów, możliwośćkomentowania wpisów przez czytelników, a takżezestaw linków do blogów polecanych przez autora 17 .Największą zaletą blogów, która w znacznej mierzeprzyczyniła się do wzrostu ich popularności, jestprostota i wygoda dodawania oraz aktualizowaniawpisów. Blogi nie wymagają od autorów znajomościjęzyka HTML, ani projektowania stron WWW.Początkowo internetowe dzienniki były zakładaneprzez osoby, które dzieliły się swoimi przemyśleniami,umieszczały własne opowiadania, czy wykonaneprzez siebie zdjęcia. Wkrótce także i firmy dostrzegłykorzyści, jakie mogą osiągnąć dzięki prowadzeniuwłasnego bloga.Oto kilka powodów wykorzystania blogów w celachmarketingowych 18 :! przekazywanie informacji swojemu zespołowi,! dostarczanie klientom informacji o firmie,! wyjście do klienta,! promowanie działalności firmy,! testowanie nowych pomysłów,! rozwinięcie działalności na skalę globalną,! dostęp do prasy,! napisanie książki,! opisanie historii sukcesów,! przekazywanie informacji w czasie kryzysu,! złagodzenie i zhumanizowanie wizerunku firmy.Z perspektywy powyższych rozważań najbardziejinteresujące są zastosowania związane z wyjściem doklienta, testowaniem nowych pomysłów oraz zhumanizowaniemwizerunku firmy. Prowadząc blog, firmamoże szybko i w prosty sposób przedstawić własnedoświadczenia dotyczące użytkowania sprzedawanychproduktów, uzyskać informację zwrotną na tematsposobu, w jaki można je udoskonalić oraz zapoznaćklientów z planami wprowadzenia nowych produktów.Tak prowadzony blog stanowi cenne źródłoinformacji dla potencjalnych oraz obecnych klientów,a przy okazji staje się platformą pozbawioną szumukomunikacji na linii konsument – firma. Pozwala tostworzyć silną więź z klientem, o którą tak bardzorywalizują współczesne przedsiębiorstwa. Przykładyfirmowych blogów to:• oficjalny blog Google: http://googleblog.blogspot.com.Stanowi cenne źródło informacji dlawszystkich osób zainteresowanych nowymirozwiązaniami dostarczanymi przez Google.17www.wikipedia.pl [05.10.2007].18A. Wibbels, Prowadź blog! Przewodnik dla małych firm, Helion, Gliwice 2007.kwiecień 2008 39


e-edukacja w krajuPonadto zawiera linki do blogów prowadzonychprzez regionalne oddziały Google, jak i blogówpracowników tej firmy;• oficjalny blog firmy Dell: http://www.direct2dell.com. Prezentuje najnowsze produkty orazusługi oferowane przez firmę Dell. Wpisy dokonywanesą przez pracowników firmy.Inne przykłady to Adobe (http://blogs.adobe.com)oraz Nike (http://blog.nikebasketball.com).PodsumowanieW oparciu o wyżej opisywane przypadki widać, żewarto badać zjawisko edukacji w służbie marketingu,rozumianej nie tylko jako proces, dzięki któremu firmadzieli się z klientem informacjami na określony temat.W nieformalnej atmosferze, dla której optymalnewarunki stwarza internet, między nadawcą (którymjest firma) a odbiorcą (uczący się klient) dochodzido sprzężenia zwrotnego. Po pierwsze, może byćto zakup produktu danej firmy, o czym wspomnianow przytoczonych danych dotyczących klientów, którzyzakupili produkty firmy Sony, po drugie, firma– nauczyciel nierzadko uczy się od swoich uczniówi premiuje tych najbardziej zaangażowanych i innowacyjnych.Mamy tu do czynienia z efektem podwójnejkorzyści. Co więcej, jest to sytuacja, w którejdodatkową korzyść odnoszą wszyscy zaangażowani,można więc z powodzeniem nazwać ją sytuacją synergiczną.Nowa jakość kanału komunikacyjnego i idące zanią nowe właściwości szumu pociągają szereg zmian.Opisane przez nas przykłady rozwiązań edukacyjnychw środowisku internetu (często określane mianemtrendu) powinny być traktowane jako przykładyskutecznego remedium na szum i zagubienie klientaw internecie. Jak już powiedzieliśmy, zjawisko „białegoszumu” komunikacyjnego w internecie stwarzanowe warunki do walki o klienta. W dotychczasowympoukładanym szumie (czyli takim, który charakteryzujesię określoną częstością) można było przewidywaćpewne reakcje i <strong>zachowania</strong> konsumentów, dopasowującdo nich określone strategie. W dobie internetu,który bez wyszukiwarek byłby irytująco brzęczącymw górnej skali szumu zjawiskiem, <strong>zachowania</strong> ludziprzewartościowują się, dlatego zmianie podlegająrównież strategie marketingowe firm, czego najlepszymprzykładem są firmowe wirtualne kampusy i blogi.Koncerny te zrozumiały bowiem, że krzyczenie:U nas najtaniej! w środowisku „białego szumu” nie jestskuteczne, podobnie jak dodanie kropli atramentu dobrunatnej wody – uczyni ją tylko bardziej szarą.BibliografiaT. Białobłocki, J. Moroz, M. Nowina Konopka,L.W. Zacher, Społeczeństwo informacyjne. Istota, rozwój,wyzwania, Wydawnictwa Akademickie i Profesjonalne,Warszawa 2006.R. Brady, E. Forrest, R. Mizerski, Marketing w Internecie,Polskie Wydawnictwo Ekonomiczne, Warszawa 2002.R. Brown, Procesy grupowe: dynamika wewnątrzgrupowai międzygrupowa, Gdańskie Wydawnictwo Psychologiczne,Gdańsk 2006.R. Cialdini, Wywieranie wpływu na ludzi. Teoria i praktyka,Gdańskie Wydawnictwo Psychologiczne, Gdańsk1995.T. Doliński, Techniki wpływu społecznego, Scholar,Warszawa 2005.U. Eco, Nieobecna struktura, KR, Warszawa 1996.R. Heath, Ukryta moc reklamy: co tak naprawdę wpływana wybór marki?, Gdańskie Wydawnictwo Psychologiczne,Gdańsk 2006.T.E. Holmes, School Your Customers, „The Advertiser”,2006, nr 8.J. Kornai, Niedobór w gospodarce, Państwowe WydawnictwoEkonomiczne, Warszawa 1985.P. Kotler, Marketing. Analiza, planowanie, wdrażaniei kontrola, Gebethner & S-ka, Warszawa 1994.E. Nęcka, Psychologia twórczości, Gdańskie WydawnictwoPsychologiczne, Gdańsk 2001.P.M. Senge (red.), Piąta dyscyplina. Materiały dla praktyka,Oficyna Ekonomiczna, Kraków 2002.J. Ridderstrale, K. Nordstrom, Funky biznes. Taniectalentu z kapitałem, WIG Press, Warszawa 2001.T. Sztucki, Encyklopedia marketingu, Placet, Warszawa1998.P. Wallace Psychologia Internetu, Rebis, Poznań 2001.A. Wibbels, Prowadź blog! Przewodnik dla małych firm,Helion, Gliwice 2007.A. Wodecki, Kapitał Intelektualny Lubelszczyzny, WydawnictwoUMCS, Lublin 2007.Netografia dostępna jest w wersji internetowejczasopisma.Tomasz Chudak jest współwłaścicielem firmy technologiczno-szkoleniowej OXIGO CreativEducation z siedzibąw Lublinie, zajmującej się produkcją i wdrożeniami rozwiązań webowych. Pierwsze kroki stawiał w Polskim UniwersytecieWirtualnym, z którym związany był przez cztery lata. Trener i wykładowca Uniwersyteckiego Centrum ZdalnegoNauczania i Kursów Otwartych UMCS z zakresu tworzenia kursów zdalnych i prowadzenia zajęć przez internet.Współtwórca Wirtualnego Kampusu UMCS w Lublinie. Obecnie zajmuje się metodyką zdalnego nauczania, tworzeniemstandardów na potrzeby nauczania przez internet i wdrożeniami systemów e-learningowych w organizacjach.Piotr Lewandowski jest współwłaścicielem firmy OXIGO CreativEducation. W latach 2001–2005 pracował w PolskimUniwersytecie Wirtualnym, gdzie zajmował się e-marketingiem oraz projektowaniem interaktywnych szkoleń.Wykładowca i trener z zakresu e-marketingu, biznesu elektronicznego oraz technologii internetowych. Zawodowozajmuje się wykorzystaniem multimediów w nauczaniu przez Internet, wdrażaniem systemów e-learningowychw organizacjach oraz projektowaniem aplikacji internetowych.40 e-<strong>mentor</strong> nr 2 (24)


E-learning. Identyfikacja stanu rozwojui jego przyszłe koncepcje w kształceniustudentów– relacja z konferencjiAnna Piaskowska17 marca 2007 roku w Warszawie odbyła się konferencjaE-learning. Identyfikacja stanu rozwoju i jegoprzyszłe koncepcje w kształceniu studentów. Konferencjaorganizowana przez Instytut Organizacjii Zarządzania w Przemyśle (ORGMASZ) stanowiłaczęść realizowanego w latach 2006-2008 grantubadawczego pt.: Rozwój wirtualizacji kształceniaw dziedzinie nauk ekonomicznych w gospodarce opartejna wiedzy. Celem konferencji była identyfikacjastanu i koncepcji oraz perspektyw rozwojowyche-learningu w polskim systemie edukacji ekonomicznej.Uczestniczyło w niej blisko 100 osób zainteresowanychproblematyką e-learningu, reprezentującychzarówno środowisko akademickie, jak i biznesowe.Organizatorzy przewidzieli w programie konferencjitrzy dyskusje panelowe z udziałem zaproszonychgości.Po uroczystym otwarciu przez prof. Wiesława Grudzewskiego(ORGMASZ), przewodnicząca Konferencji– prof. Irena Hejduk (SGH) wygłosiła referat, w którymprzedstawiła stan i perspektywy rozwoju edukacjie-learningowej na świecie i w Polsce, wprowadzającsłuchaczy w tematykę konferencji.Pierwszy panel, któremu przewodniczył prof.Wiesław Grudzewski, koncentrował się na tematycekierunków rozwoju wirtualizacji edukacji orazcharakterystyce i ocenie uniwersytetów otwartychw Europie i na świecie. Profesor Jerzy Kisielnicki(UW) zwrócił uwagę na problem zapewnienia jakościw obszarze edukacji na poziomie wyższym,niezależnie od formy nauczania – tradycyjnej czye-nauczania. Dbałość o jakość kształcenia powinnabowiem opierać się w szczególności na dwóch elementach:jakości produktu finalnego uczelni – czyliabsolwenta, oraz jakości samego procesu nauczania,w którym student nie powinien być pozostawionysam sobie. Dlatego przyszłość w kształceniustudentów, zdaniem prof. Kisielnickiego, należydo blended learning, z wyłączeniem rozwoju elitspołecznych, które można wykształcić jedynie metodątradycyjną, wspieraną formą blended learning.Kolejny panelista – prof. Anton Stasch, występującyw imieniu prof. Konstantina Theile, prezesa Zarządui dyrektora największego uniwersytetu wirtualnegow Europie – Educatis University (mającego siedzibęw Altdorf w Szwajcarii) – przestawił doświadczeniaw tworzeniu tej międzynarodowej uczelni internetowejo profilu biznesowym. Charakteryzuje jąróżnorodne podejście do nauczania, wykorzystującezarówno formę tradycyjną, jak i elektroniczną.Kolejne wystąpienia – prof. Tadeusza Krupy (PW),dr. Tomasza Walaska, dr. Bolesława Szomańskiego(PW) oraz dr. hab. inż. Mariusza Bednarka (PW)– umożliwiły uczestnikom konferencji zapoznaniesię z doświadczeniami z wdrożeń oraz prowadzeniazajęć e-learningowych, wspierających tradycyjną metodękształcenia. Profesor Bednarek zaprezentowałswoje doświadczenia z perspektywy meksykańskiej,naświetlając problemy związane z ekspansją e-learninguw Ameryce Południowej.Do pierwszego panelu zaproszono także dwiedoktorantki SGH – Annę Piaskowską oraz SabinęKlimek. Pierwsza z nich przedstawiła działania UEw zakresie wykorzystania potencjału e-learninguw tworzeniu bardziej efektywnych i atrakcyjnychsystemów kształcenia i szkolenia zawodowego.Zaprezentowała również ranking państw najlepiejprzystosowanych do ery nowych technologii –e-readiness – przygotowywany przez Economist IntelligenceUnit we współpracy z firmą IBM (Institutefor Business Value) oraz ranking najbardziej zinformatyzowanychkrajów świata, według metodologiiInternational Data Corporation. Natomiast S. Klimeknakreśliła problematykę wykorzystania narzędzie-learningu z perspektywy studenta, wskazując nawłasne doświadczenia zdobyte podczas studiów nazagranicznych uczelniach w Finlandii oraz w WielkiejBrytanii – państwach plasujących się w czołówkachrankingów krajów najlepiej wykorzystujących nowoczesnetechnologie informacyjne i telekomunikacyjnew budowie społeczeństwa informacyjnego.Podsumowując panel, prof. Grudzewski podkreśliłkonieczność pogłębienia prac nad wirtualizacjąedukacji, w której e-learning, jako ważne narzędzie,powinien być wprowadzany do systemów edukacji,zdaniem profesora, raczej w sposób ewolucyjnyniż rewolucyjny. W tym kontekście szczególnegoznaczenia nabiera współpraca instytucjonalna, koordynacjadziałań i partnerstwo pomiędzy wszystkimizainteresowanymi rozwojem e-nauczania.kwiecień 2008 41


e-edukacja w krajuDrugi panel, pod przewodnictwem prof. AgnieszkiSitko-Lutek (UMCS), dotyczył tematyki programukształcenia wirtualnego w dziedzinie ekonomii.Panel rozpoczęło wystąpienie Krzysztofa Jaszczuka,który przedstawił zagadnienia dotyczące kształceniawirtualnego. Temat ten omawiano podczas X MiędzynarodowejKonferencji INTERTECH – InternationalConference on Engineering and Technology Education,która odbyła się w dniach 2–5 marca 2008 roku w SaoPaulo w Brazylii – związanej z najnowszych trendamiw dziedzinie inżynierii i edukacji technologicznej. Zaprezentowanyprzez K. Jaszczuka referat pt.: Professors’driving and limiting factors for the adoption of e-learningin higher education within Argentine context, autorstwaI. Casanovy, G. Fernandeza, C. Tomassino, przedstawiałwyniki przeprowadzonych wśród profesorówargentyńskich badań empirycznych z wykorzystanianarzędzi e-learningu w szkolnictwie wyższym. Omówionow nim czynniki wpływające na wykorzystanienarzędzi e-learningu, konkludując badania potrzebąbudowy strategii wsparcia dla wykorzystania narzędzie-learningu w systemach kształcenia, popartejpomocą instytucjonalną. Następny prelegent dr inż.Andrzej Polak (WSZiF, Wrocław) przedstawił praktyczneaspekty zastosowania e-learningu w nauczaniuorganizacji i zarządzania przedsiębiorstwem. Panelzakończyło wystąpienie dr. hab. Wojciecha Wiszniewskiego(WSE), który skoncentrował się na barierachwykorzystania narzędzi e-learningu w programachkształcenia. Podsumowując panel, prof. A. Sitko-Lutekwskazała na wciąż niski poziom zaawansowania aplikacjimetod e-learningowych w programie kształcenia,podkreślając, że trzema głównymi barierami takiegostanu rzeczy są: koszty, ograniczenia kulturowe orazproblem ochrony wiedzy i praw autorskich.Trzeci panel, dotyczący narzędzi i technologiiedukacji wirtualnej, poprowadził prof. ZygmuntDrążek (Uniwersytet Szczeciński). Wystąpienia panelistówkoncentrowały się na tematyce wykorzystanianarzędzi technologii informacyjno-telekomunikacyjnychw procesie dydaktycznym. Profesor ZdzisławSzyjewski (Uniwersytet Szczeciński) podkreśliłznaczenie samego przygotowania procesu nauczaniaz wykorzystaniem nowoczesnych technologii,w tym kwestię odpowiedniego dostosowania styluprowadzenia wykładu oraz przygotowania materiałówodpowiednio do formy przekazu. ProfesorAndrzej Straszak (WSIiZ) przedstawił nowe możliwościwykorzystania narzędzi i technologii edukacjiw strukturach cybernetycznych. Natomiast kończącydyskusję panelową prof. Krzysztof Santarek zwróciłuwagę na ograniczone możliwości wykorzystaniadostępnych obecnie metod i narzędzi e-learningowychw rozwoju myśli naukowej. Podsumowując,przewodniczący panelu podkreślił, że wirtualizacjaedukacji wymaga dalszych prac, polegających nałączeniu narzędzi technologii informacyjno-telekomunikacyjnychw procesie dydaktycznym – celempoprawy efektywności systemów edukacji.Podsumowując zaś całą konferencję, prof. I. Hejdukpodkreśliła konieczność budowy gospodarki opartejna wiedzy – poprzez systemy kształcenia i szkolenia,podążające za wyzwaniami przyszłości i antycypującenową rzeczywistość. Zwróciła również uwagę namożliwość wykorzystania narzędzi e-learningu dopoprawy konkurencyjności polskiego szkolnictwawyższego na arenie międzynarodowej, podkreślająckonieczność zacieśniania współpracy w obszarzee-learningu oraz promocji tej formy kształcenia.Na zakończenie warto dodać, że planowane jestwydanie publikacji pokonferencyjnej, zawierającejwszystkie zgłoszone referaty. Publikację w wersjipapierowej oraz na płycie CD będzie można zakupićw ORGMASZ.PolecamyE 2.0 Encyklopedia nowej generacji, PWN, Warszawa 2008Nakładem Wydawnictwa Naukowego PWN ukazała się E 2.0 Encyklopedia nowej generacji– nowoczesna publikacja zawierająca, oprócz książki, również płytę DVD oraz wzbogaconao serwis internetowy, który umożliwia interaktywne pozyskiwanie wiedzy. Hasła zostały zaprezentowanew ciekawej i ułatwiającej naukę formie. Są one również powiązane tematycznieza pomocą odnośników i skojarzeń, co pozwala na przechodzenie od jednego hasła do innychi łączenie różnych elementów i informacji. Na płycie DVD znajdują się multimedialne dodatki,np. atlas geograficzny i historyczny, wielki leksykon, a także testy sprawdzające wiedzę. Serwisinternetowy zawiera pierwszą w Polsce interaktywną bazę danych encyklopedycznych OMEGA,która umożliwia sortowanie i filtrowanie danych. Więcej informacji na: http://e2.0.pwn.plEncyklopedia życiaWirtualna Encyklopedia życia (Encyclopedia of Life) to globalny projekt realizowany online przez grono naukowców--biologów. Celem jest zgromadzenie w portalu informacji na temat wszystkich form życia, które istnieją na Ziemi(w zamierzeniu jest około 1,8 mln haseł odpowiadającym poznanym dotąd gatunkom). W drugim etapie rozwojuprojektu swoje propozycje haseł będą mogli nadsyłać internauci, jednak przed opublikowaniem będą one sprawdzaneprzez ekspertów. Więcej informacji na: http://www.eol.org42 e-<strong>mentor</strong> nr 2 (24)


Kurs online z przysposobieniabibliotecznego– studium przypadkuRafał MoczadłoPodobnie jak na wielu innych uczelniach, zanim studenciUniwersytetu Marii Curie-Skłodowskiej w Lublinie zacznąna dobre korzystać z zasobów Biblioteki Uniwersyteckiej,powinni przejść szkolenie z przysposobienia bibliotecznego.Przedsięwzięcie to pozornie wydaje się nie wyróżniaćniczym spośród wielu innych tego typu szkoleń, gdyby niesprawa skali i terminu. Każdemu zależy na tym, aby odbyłosię jak najszybciej, jednak obejmuje ono ponad 6000 osób.Są to studenci pierwszego roku rozpoczynający dopieroswoją przygodę akademicką, dlatego powinni poznaćjedno z podstawowych narzędzi studiowania, jakim jestumiejętność korzystania z zasobów biblioteki.Wbrew pozorom korzystanie z biblioteki uniwersyteckiejnie ogranicza się tylko do umiejętnościwypełnienia rewersu i przyjścia po odbiór książki.Współczesna biblioteka jest bowiem zbiorem wieluźródeł informacji, nie tylko w postaci drukowanychwydawnictw, ale również cyfrowej bazy danych. Dziękiinternetowi jest też miejscem, w którym możnakorzystać ze zbiorów innych bibliotek na świecie.Umiejętność poruszania się po tak złożonym systemiewymaga przeszkolenia. Jeżeli dodatkowo okaże się,że przysposobić do tego trzeba w krótkim czasietysiące studentów, zamiar ten przestaje być łatwy dozrealizowania.Ewolucja szkoleniaOd wielu lat studentów przygotowywano w sposóbtradycyjny. Proces przeszkolenia trwał dwa miesiącei był realizowany w formie zwykłych zajęć prowadzonychprzez około czterdziestu pracowników z różnychdziałów biblioteki, którzy musieli być w tym czasieodrywani od swoich zwykłych obowiązków. Zajęciaodbywały się codziennie (w dni robocze) od godziny8:00 do 20:00. Ćwiczenia prowadzili pracownicy mającystopień starszego bibliotekarza lub kustosza, albowiemtylko te osoby dysponują uprawnieniami dydaktycznymi.Dużym problemem było też znalezienie odpowiedniegomiejsca do organizacji zajęć, nawet pomimorozdzielenia studentów na kilkadziesiąt grup.W 2002 roku został stworzony we Flashu i umieszczonyna stronie internetowej elektroniczny podręcznikPierwsze kroki w bibliotece, wspomagający procestradycyjnego szkolenia z przysposobienia bibliotecznego.W dalszym ciągu jednak organizowane byłytradycyjne zajęcia. Podręcznik pełnił jedynie funkcjępomocniczą.W roku akademickim 2006/2007, dzięki wspólnejinicjatywie Uniwersyteckiego Centrum ZdalnegoNauczania i Kursów Otwartych oraz Biblioteki Uniwersyteckiej,postanowiono zmienić dotychczasowąpraktykę. Uruchomiono zajęcia online zorganizowanena edukacyjnej platformie Moodle. Wśród materiałówtam zamieszczonych, jako podstawowe źródło wiedzy,znalazł się wspomniany wyżej podręcznik orazstworzony na platformie Moodle test. Od tamtej porypodręcznik dostępny jest na stronie internetowej:http://biblioteka.kampus.umcs.lublin.pl. Testy uruchamianesą zgodnie z przyjętym harmonogramemprzystępowania do zaliczenia. Zastosowanie takiegorozkładu było korzystne ze względu na koniecznośćrozłożenia w czasie zgłaszania się studentów z indeksamido wpisania zaliczenia.Test z przysposobienia bibliotecznego składa sięczęściowo z pytań wielokrotnego wyboru. Dziękizastosowaniu funkcji mieszania kolejności pytań i odpowiedzizmniejszyło się ryzyko stosowania gotowych,wcześniej przygotowanych zestawów. Zdecydowano,że do testu będzie można podchodzić wiele razy, ażw końcu zostanie on poprawnie rozwiązany. Wprowadzeniemożliwości wielokrotnego zdawania testu spełniadwojaką funkcję: sprawdza wiedzę oraz pozwalaprzyswajać nowe informacje. Jest to kolejny sposób nawyeliminowanie ściągania przez studentów. Skoro testmożna powtórzyć, to nie opłaca się oszukiwać.Oczywiście wszystkie te zabiegi nie likwidują całkowicieproblemu ściągania na testach. Zjawisko nieuczciwejpostawy na egzaminie jest nie tyle związanez narzędziem edukacyjnym, jakim jest w tym wypadkuplatforma e-learningowa, ile ze zjawiskami etyczno--społecznymi, z powszechną akceptacją ściągania. Niewydaje się, aby zmiana technologii edukacyjnej miałaistotny wpływ na zmianę postaw etycznych uczniówczy studentów.W kontekście zagadnień etycznych w edukacjipocieszający jest fakt, że wyniki testów z przysposobieniabibliotecznego oraz dostępne administracyjnielogi na platformie tegoż szkolenia wskazują,iż wśród osób zdających test nie ma powtarzającychsię wyników ze wszystkimi odpowiedziami prawidło-kwiecień 2008 43


e-edukacja w krajuwymi. Dane zebrane z <strong>platformy</strong> świadczą o tym, żestudenci podchodzili do testu wielokrotnie, osiągająccoraz wyższe rezultaty. Można zatem przypuszczać,że jeżeli nawet były stosowane nieuczciwe praktyki,to miały one charakter ograniczony. Warto też zaznaczyć,że stosowanie technologii e-learningowejpozwala na większą kontrolę tego, co dzieje siępodczas rozwiązywania testów. Zdawanie egzaminujest zautomatyzowane, co oznacza, że obowiązująjasne i obiektywne procedury oceniania. Poza tymwykorzystanie zwykłych narzędzi dostępnych administratorowiMoodle, pozwala na wyjaśnienie wszelkichwątpliwych sytuacji, dzięki śladom pozostawianymprzez użytkowników na platformie.Harmonogram i kosztyZ uwagi na przeobrażenia w organizacji BibliotekiGłównej UMCS, pojawiła się konieczność wprowadzeniadrobnych zmian treści we flashowym podręcznikuPierwsze kroki w bibliotece oraz w opierającym się nanim teście. Przy okazji można było unowocześnićwygląd i nawigację podręcznika. Wprowadzeniewszystkich zmian w kursie online trwało od 10 wrześniado 1 października 2007 r. Na platformie Moodlekonieczne było:! zaktualizowanie pytań i odpowiedzi w teście,! stworzenie nowych obszarów, do których zostaliprzypisani studenci,! opracowanie obszaru awaryjnego dla studentów,którzy z różnych względów nie zaliczylitestu w poprzednim roku akademickim,! opracowanie narzędzia (w Excelu) do obróbkidanych studentów tak, żeby zautomatyzowaćproces ich wprowadzania na platformę,! wprowadzenie danych na platformę Moodle,! wykonanie serii testów sprawdzających działaniesystemu.Prace nad projektem zostały przygotowane w takisposób, że jedna osoba zajmowała się administracją<strong>platformy</strong> Moodle oraz prowadzeniem całego projektu,zaś inne zaangażowane zostały jako: autorpodręcznika, informatyk i grafik.Platforma Moodle jest oprogramowaniem darmowym,dlatego nie poniesiono żadnych obciążeńmaterialnych związanych z zakupieniem licencjina program. Jedynymi kosztami projektu była pracaczterech osób bezpośrednio zaangażowanychw przygotowanie kursu, a także praca ośmiu bibliotekarzy,którzy – okazjonalnie, jeżeli zachodziłataka potrzeba – pomagali studentom bezpośrednioprzy komputerach w bibliotece, wyjaśniając zasadykorzystania z kursu. Przede wszystkim jednak zajmowalisię sprawdzaniem ocen z testu i wpisywaniemzaliczenia. Oczywiście wszystkie te zajęcia stanowiąich zwykłe obowiązki pracownicze. Reasumując,można powiedzieć, że przekształcenie tradycyjnegoszkolenia w kurs online nie wiązało się z większyminakładami finansowymi, a nawet, że zostało zrealizowanew ramach zwykłych obowiązków kilkuzaangażowanych pracowników.Rozwiązania techniczne i obawyKonta uczestników kursu zostały dodane do<strong>platformy</strong> administracyjnie. Zdecydowano się nataki krok ze względu na powtarzające się imionai nazwiska studentów. Przewidywano także kłopotyz samodzielnym zarejestrowaniem się studentów(konieczność prowadzenia korespondencji z pewnąliczbą studentów mających wątpliwości na tematsposobu zarejestrowania się).Ponieważ głównym identyfikatorem studenta jestnumer indeksu, kolejnym argumentem przemawiającymza administracyjnym dodaniem użytkownikówbyła obawa przed błędnym wprowadzeniem przezstudenta numeru indeksu na stronie internetowej.Niewłaściwy numer tego dokumentu mógłby staćsię przyczyną problemów związanych z określeniemosoby, która rzeczywiście zaliczyła test. Przy wprowadzaniudanych administracyjnie, numery indeksówsą przesyłane w gotowym pliku tekstowym i umieszczaneautomatycznie na serwerze, z wykorzystaniemnarzędzia dostępnego na platformie Moodle. Nie mazatem możliwości, aby nastąpiły jakiekolwiek niezgodnościw danych identyfikacyjnych.Aspektem, na który należało zwrócić uwagępodczas tworzenia kursów, była sprawa zautomatyzowanegododawania użytkowników. Przy sześciutysiącach rekordów lepiej jest podzielić bazę danychna kilka części, tak aby uniknąć zawieszenia procesuprzesyłania danych na serwer. W tym przypadku popierwszej próbie wprowadzenia wszystkich użytkownikówjednocześnie, serwer przyjął około 75 proc. rekordówi należało powtórzyć operację po uprzednimpodzieleniu pliku na kilka części.Prowadzenie kursu online dla takiej liczby studentówrodziło obawy dotyczące wytrzymałości <strong>platformy</strong>Moodle, a także przepustowości serwera. Jak się jednakokazało, liczba studentów do przeszkolenia niemiała większego wpływu na funkcjonowanie stronyinternetowej. Z uwagi na to, że terminy testów byłyrozłożone w czasie (co tydzień, od 8 październikado 19 listopada 2007 roku zdawały dwa wydziały),liczba odwiedzin na witrynie nie była na tyle duża, bypowodować problemy w działaniu strony.Ciekawą konsekwencją zastosowania kursu onlinebyło uniezależnienie czasu trwania kursu od liczbystudentów. W roku akademickim 2007/2008 podjętodecyzję, by przysposobieniem bibliotecznym objąć równieżstudentów studiów niestacjonarnych (zwiększenieliczby z 4536 osób w roku akademickim 2006/2007 do6054 osób w roku kolejnym). Okazało się, że zwiększenieliczby studentów nie wpłynęło w żaden sposób nafunkcjonowanie kursu. Zmiana nie była odczuwalna dlaobsługujących szkolenie. Z drugiej strony egzaminowaniez przysposobienia bibliotecznego, również w przypadkustudentów niestacjonarnych rodziło obawę, żetrzeba będzie przeprojektować całkowicie strukturę obszarówdydaktycznych Moodle. Dotychczasowy podziałobejmował wydziały jako kategorie kursów, natomiastkierunki studiów były tworzone w kategoriach jakoposzczególne kursy. Aby uniknąć trudności z odnalezie-44 e-<strong>mentor</strong> nr 2 (24)


Kurs online z przysposobienia bibliotecznegoniem oceny studenta, nowy podział przewidywał utworzenieoddzielnych kursów dla studiów stacjonarnychi niestacjonarnych. Wprowadzenie zmian spowodowałojednak, że osoby udzielające zaliczeń, podczas wpisywaniamusiałyby odnaleźć konkretny kierunek wśródsześćdziesięciu sześciu kursów. Z drugiej strony, dziękibardziej szczegółowemu podziałowi (kierunki i trybstudiów), mniejsza była liczba studentów przypisana dojednego kursu (oscylowała poniżej dziewięćdziesięciuosób). Dzięki temu podziałowi łatwiej można było odnaleźćocenę w mniejszej grupie studentów przypisanejdo konkretnego kursu. Jednak praktyka okazała sięinna. Podział na sześćdziesiąt sześć kursów okazał sięniewygodny w użyciu. Łatwiej wyszukać konkretnegostudenta wśród sześciuset osób, niż wyszukiwać określonykurs wśród listy ponad sześćdziesięciu kierunków,a następnie konkretną osobę wśród dziewięćdziesięciuinnych (rys. 1).Rysunek 1. Struktura kursu IW związku z tymi doświadczeniami w nowymroku akademickim 2008/2009 rozważane jest wprowadzeniepodziału kursów ze względu na wydziały,a zrezygnuje się z podziału na konkretne kierunkistudiów (rys. 2).Inne trudności z prowadzeniem kursu (całkowicie online)były związane z mobilnością studentów pomiędzykierunkami. Studenci dostawali się na kilka kierunkówjednocześnie, a w rezultacie rezygnowali z jednegoz nich i rozpoczynali studia na innym. Zmiany te powodowałyzdezaktualizowanie danych przesłanych napoczątku roku z dziekanatów i konieczność ich stałegouzupełniania ręcznie. Około 3 proc. studentów uczestniczącychw kursie zgłaszało pytania dotyczące tego, jakz niego skorzystać. Sporą część tych zapytań stanowiłyprośby o dopisanie do bazy studentów ze względuna zmianę kierunku studiów lub otrzymanie indeksuw późniejszym terminie. Nie stanowiło to znaczącegoobciążenia dla administratora, wymagało jednakzaangażowania osoby odpowiadającej na e-mailew szczytowym okresie.Można domyślać się, iż część studentówpodeszła do pierwszego zaliczenia w sposóbulgowy. Szczególnie ze względu na to, że jegobrak nie wiązał się z poważnymi konsekwencjami.W związku z tym tydzień po zakończeniu zwykłegoharmonogramu został ustalony, obowiązującydo końca semestru zimowego (do końca marca),dodatkowy termin zdawania testu. Do 18 grudnia2007 roku w terminie dodatkowym test rozwiązało388 osób (około 5,6 proc.).KorzyściŹródło:opracowanie własneRysunek 2. Struktura kursu IIŹródło: opracowanie własnePrzekształcenie kursu z tradycyjnego na kursonline umożliwiło skrócenie czasu trwania przysposobieniabibliotecznego z dwóch miesięcy dojednego i dziesięciu dni. Dzięki przeorganizowaniuzajęć i przeniesieniu całego kursu do internetuudało się zmniejszyć liczbę obsługującychszkolenie bibliotekarzy z około czterdziestu doośmiu osób w skali całego semestru, natomiastdziennie z ośmiu do dwóch osób. Innymi słowy,dzięki nowemu rozwiązaniu, do obsługi kursuonline zaangażowanych jest w ciągu miesiącatyle osób, ile było zaangażowanych do kursutradycyjnego w ciągu jednego dnia. W związkuz powyższym zniknęła konieczność wykorzystywaniabibliotekarzy z innych oddziałów bibliotekido prowadzenia zajęć grupowych. Przestały miećrównież znaczenie warunki lokalowe. Ponadtosami studenci mogą zaliczyć kurs w dowolnymdniu tygodnia i o dowolnej porze. Dodatkowo,jeżeli ktokolwiek chce dowiedzieć się czegoś natemat funkcjonowania biblioteki, może korzystaćze świetnie napisanego podręcznika umieszczonegoi dostępnego cały czas na stronie internetowejkursu.Niewątpliwą korzyścią jest osiągnięcie wspomnianejwyżej elastyczności co do możliwej liczbystudentów, których można przeszkolić. Nawetkwiecień 2008 45


e-edukacja w krajugdyby uniwersytet rozwinął swoją działalność na tyle,że za rok zostałaby przyjęta dwa razy większa grupaosób na studia, to zmiana taka nie miałaby praktycznegoznaczenia dla funkcjonowania szkolenia.PodsumowanieW podsumowaniu warto wymienić korzyści wynikająceze zmiany formy kursu z przysposobieniabibliotecznego, jak również wskazać obszary, na którenależy zwracać szczególną uwagę przy konstrukcjitakiego przedsięwzięcia.Do korzyści z pewnością można zaliczyć:! skrócenie czasu realizacji przeszkolenia,! znaczne zmniejszenie liczby osób zajmującychsię szkoleniem,! wygodniejszą dla studentów formę zdawaniaegzaminu,! elastyczność czasu i miejsca,! uniezależnienie od zmieniającej się liczby użytkownikówdo przeszkolenia,! jasność procedur funkcjonujących na platformie.Złożony charakter i skala przedsięwzięcia powodują,iż szczególną uwagę należy zwrócić na następująceaspekty:! przy dodawaniu użytkowników na platformęwarto zwrócić uwagę na to, by dzielić dużąbazę danych użytkowników na kilka części,tak aby serwer bez problemu przyjął wszystkierekordy;! ze względu na dużą liczbę uczestników wartopodzielić harmonogram zdawania testu na kilkaobowiązkowych terminów, w celu uniknięciajednoczesnego zdawania testu przez wiele osób.Może mieć to wpływ nie tylko na działanie serwera,ale przede wszystkim brak podziału harmonogramuw znacznym stopniu może przysporzyćpracy osobom zajmującym się obsługą kursu;! z uwagi na dużą mobilność studentów i na to, żebrak zaliczenia kursu bibliotecznego nie jest obwarowanyrestrykcjami, warto pamiętać o uruchomieniuterminów dodatkowych, aby umożliwićzdawanie testu osobom, które z różnych przyczynnie zdały testu w terminie;! podział na kierunki w przypadku dużego uniwersytetumija się z celem, ze względu na utrudnieniaw późniejszej obsłudze wpisywania zaliczeń.Na zakończenie należy podkreślić, że zastosowaniekursu online z przysposobienia bibliotecznegojest ogromnym postępem w stosunku do szkoleniatradycyjnego. Jest tak nie tylko ze względu na zaangażowaniemniejszych zasobów, ale też oszczędnośćczasu i poprawienie poziomu umiejętności nabywanychprzez studentów.Autor pracuje w Uniwersyteckim Centrum Zdalnego Nauczania i Kursów Otwartych (Uniwersytet Marii Curie--Skłodowskiej w Lublinie). Prowadzi projekt szkolenia z przysposobienia bibliotecznego on-line, a także projektkampusu uniwersyteckiego UMCS w Second Life. Jest doktorantem na Wydziale Filozofii i Socjologii UMCS.PolecamyeLA – eLearning Africa, 28–30 maja 2008 r., Accra, GhanaeLA – eLearning Africa to największa konferencja poświęcona e-learningowi i edukacji na odległość organizowana w Afryce.W ubiegłorocznym spotkaniu uczestniczyło 1406 osób reprezentujących 88 krajów (72 proc, uczestników pochodziłoz Afryki), a swoje referaty zaprezentowało ponad 300 osób.W tym roku organizatorzy proponują szesnaście obszarów tematycznych, m.in. budowanie infrastruktury dla edukacjiw XXI wieku, e-learning w edukacji medycznej i walce z HIV oraz AIDS, wzmacnianie pozycji kobiet przy wsparciu ICTi e-learningu, e-edukacja w sektorze publicznym. Więcej informacji na: http://www.elearning-africa.comSOLSTICE 2008 – eLearning and Learning Environments for the Future5 czerwca 2008 r., Edge Hill University, Ormskirk, Lancashire, Wielka BrytaniaTrzecia międzynarodowa konferencja SOLSTICE 2008 ma na celu znalezienie odpowiedzi na pytania dotyczące m.in.przyszłych koncepcji e-learningu, wyglądu środowisk nauczania w 2020 roku, oraz fizycznych, wirtualnych i kognitywnychwymiarów środowisk edukacyjnych. Główne tematy konferencji to: metody badań, teoretyczne podstawy e-learningui środowisk nauczania, technologie w środowiskach edukacyjnych – przestrzenie fizyczne i wirtualne, wpływanie nauczenie się studentów. Więcej informacji na: http://www.edgehill.ac.uk/Sites/SOLSTICE/Conference2008EDEN Annual Conference: New Learning Cultures. How do we learn? Where do we learn?11–14 czerwca 2008 r., Lizbona, PortugaliaTegoroczna konferencja organizowana przez EDEN w Lizbonie będzie dotyczyć znaczenia i wpływu zagadnień kulturowychna rozwój e-learningu w Europie i na całym świecie. Główne obszary tematyczne konferencji to: e-learning i e-włączenie,przełamywanie barier sektorowych, zagadnienia kulturowe w ICT i e-learningu, standardy i benchmarking, otwartebiblioteki, e-praca i e-życie, e-government i obywatelstwo, style uczenia w kształceniu ustawicznym i nie tylko, cyfrowapedagogika i czynniki sukcesu w międzynarodowych środowiskach nauczania.Więcej informacji na: http://www.eden-online.org46 e-<strong>mentor</strong> nr 2 (24)


Efektywność projektuLAMS WZiEU– studium przypadkuAdam StecykCharakterystyka projektuProjekt LAMS WZiEU ma swój początek w 2006roku, kiedy został nawiązany kontakt pomiędzy KatedrąEfektywności Innowacji Wydziału Zarządzaniai Ekonomiki Usług Uniwersytetu Szczecińskiego a InstytutemMELCOE (Macquarie University’s E-LearningCentre Of Excellence) Innowacyjnego UniwersytetuMacquarie w Sydney. Efektem współpracy było przygotowaniepolskiej wersji językowej systemu LAMS 1(Learning Activity Management System) i pierwszew Polsce wdrożenie australijskiej <strong>platformy</strong> do zastosowańe-learningowych i blended learning.W kwietniu 2007 roku został powołany zespółmający na celu realizację I etapu (do września 2007)projektu e-learningowego LAMS WZiEU, tj.:! ostateczny test polskiej wersji językowej systemuLAMS,! implementację systemu LAMS na serwerze e-learningowym,w strukturze serwerów WZiEU,! wybór i merytoryczne opracowanie zagadnieńpierwszego przedmiotu do nauczania w trybieblended learning,! opracowanie serwisu internetowego LAMSWZiEU,! opracowanie szkolenia e-learningowego (metodologiaoraz materiały elektroniczne),! test i ocena szkolenia oraz modyfikacje treściszkolenia.W literaturze przedmiotu często, jako głównebariery wdrażania e-learningu, wymieniane są ograniczeniafinansowe organizacji, brak odpowiedniejinfrastruktury i bariery mentalne, rozumiane główniejako brak znajomości tematu i naturalna obawa przedzmianami wszystkich zainteresowanych grup (nauczycieli,studentów, informatyków i techników, zarząduorganizacji). Aby uchronić się przed niepowodzeniami,podczas początkowych prac nad projektem przyjętozałożenia uwzględniające:! barierę finansową – platforma e-learningowawykorzystywana na WZiEU musi być narzędziemdarmowym, jednakże spełniającym podstawowewymagania nowoczesnego modelu kształcenia.Po wstępnych konsultacjach ustalono, iż będzieto nieodpłatny (licencja GPL), otwarty systemLAMS (Learning Activity Management System);Rysunek 1. Fazy realizacji I etapu projektu LAMS – WZiEUŹródło: opracowanie własne! barierę organizacyjno-techniczną – systemLAMS zostanie zaimplementowany na jednymz serwerów działających w strukturze wydziału,posiadających wystarczającą ilość zasobów dopoprawnego funkcjonowania systemu. Ewentualnyzakup dedykowanego serwera e-learningowegoodbędzie się po zakończeniu i weryfikacjiI etapu projektu;1http://www.lamsfoundation.orgkwiecień 2008 47


e-edukacja w kraju! barierę mentalną – wdrażanie filozofii e-nauczaniabędzie miało charakter ewolucyjny (metoda„małych kroków”) i będzie inicjatywą oddolną,tzn. będzie możliwe wtedy i tylko wtedy, gdyprowadzący zajęcia (nauczyciele) uznają, iżsystem e-learningowy podnosi efektywnośćnauczania i poprawia organizację pracy. Przeprowadzonezostaną także badania ankietoweanalizujące stosunek studentów do nowej formynauczania.Ponadto, w drugim miesiącu realizacji projektuwprowadzono następujące założenia:! głównym modelem kształcenia będzie modelblended learning, umożliwiający połączenienauczania tradycyjnego z nowoczesnymi narzędziamiteleinformatycznymi. Pierwszymprzedmiotem nauczanym metodą mieszanąbędzie przedmiot Podstawy Informatyki, prowadzonyw laboratoriach komputerowych od1 października 2007 roku. Za opracowaniemerytoryczne przedmiotu odpowiedzialnisą wybrani pracownicy Katedry EfektywnościInnowacji i zespołu LAMS WZiEU, prowadzącydo tej pory zajęcia metodą tradycyjną;! ze względu na wysokie koszty opracowaniametodologicznego, graficznego (forma) i elektronicznego(treść) przedmiotów, postanowionowykorzystać doświadczenia australijskiei polskie, aby opracować pierwszy przedmiotw zespole projektu LAMS WZiEU;! ze względu na wykorzystywaną platformęLAMS, projekt będzie miał nazwę LAMS WZiEU,a jego charakterystyka znajdzie się w specjalnymserwisie internetowym, powiązanym zestronami internetowymi WZiEU.Największym wyzwaniem okazało się metodologicznei elektroniczne opracowanie wybranychzagadnień przedmiotu Podstawy Informatyki i przełożenietreści dydaktycznych przekazywanych w sposóbtradycyjny na język e-learningu. Podczas pracy nadelektroniczną wersją kursu opierano się na następującychzałożeniach:! realizacja wykładów – zajęcia teoretyczne prowadzonew sposób tradycyjny w wymiarze 15godzin w semestrze, natomiast weryfikacja wiedzyteoretycznej odbędzie się w laboratoriachkomputerowych w systemie LAMS, w formieinternetowego testu. Ponadto, konspekt wykładubędzie dostępny dla studentów w systemieLAMS, każdorazowo po jego zakończeniu;! realizacja laboratoriów komputerowych – zajęciapraktyczne prowadzone w laboratoriachkomputerowych w wymiarze 45 godzin lekcyjnych.Tradycyjny zakres przedmiotu obejmujezagadnienia wykorzystania podstawowychaplikacji biurowych (edytor tekstu, grafika prezentacyjna,arkusz kalkulacyjny, bazy danych,komunikacja internetowa). W projekcie LAMSWZiEU nauczanie tradycyjne obejmie około70 proc. materiału, a praca własna studentaw systemie LAMS – 30 proc.;! specyfika przedmiotu Podstawy Informatyki– ze względu na nią, głównym nośnikiem informacjiw elektronicznym kursie będą graficzneanimacje (tutoriale, przewodniki), obrazujące– krok po kroku – sposób wykorzystania funkcjiposzczególnych aplikacji biurowych. Przewodnikizostaną wykonane za pomocą darmowych(np. Wink) i komercyjnych (np. SwishMax) programów,umożliwiających tworzenie animacjiFlash. Ponadto, studenci będą weryfikowaćprzyswojoną wiedzę poprzez realizację zadańopracowanych w aplikacjach biurowych (np.zadanie na wykorzystanie funkcji logicznychw arkuszu kalkulacyjnym Ms Excel);! dodatkowe elementy – elektroniczne materiałydydaktyczne zostaną wyposażone w tradycyjneelementy występujące w e-kursach, takie jak:testy i ankiety, fora dyskusyjne i możliwośćwysyłania zadań domowych do nauczyciela.Do prowadzenia zajęć z przedmiotu PodstawyInformatyki wykorzystano materiały elektroniczneopracowane przez zespół projektu i osadzone naplatformie LAMS. Zajęcia miały charakter stacjonarny(laboratoria komputerowe) oraz pracy własnej studenta(samokształcenie) i zostały zaplanowane, tak abyosiągnąć następujące cele dydaktyczne:! wyrównanie poziomu wiedzy bazowej (początkowej)studentów, dotyczącej obsługi aplikacjibiurowych – opracowanie graficznych przewodników,umożliwiających szybkie przyswojeniepodstawowej wiedzy studentom z mniejszymdoświadczeniem w użytkowaniu aplikacji biurowych,tak aby począwszy od drugich zajęć,poziom zaawansowania wszystkich studentówbył wyrównany;! standaryzacja przekazywania wiedzy w formietradycyjnej – wykorzystanie systemu LAMSpodczas zajęć na żywo do prezentowania treściszkoleniowych w takim samym układzie (co nieoznacza, że tak samo) i realizację przyjętychzadań tego samego typu (co nie oznacza, żetakich samych) przez wszystkich nauczycieli;! praca własna studentów w formie e-nauczania– opracowanie sekwencji dydaktycznejumożliwiającej prezentację treści (graficzneprzewodniki, tekstowe podsumowanie, takaby studenci mogli w łatwy sposób kopiowaćnotatki do elektronicznego notatnika) i jej weryfikacjępoprzez udostępnienie zadań i testówsprawdzających;! komunikacja ze studentami – każda sekwencjadydaktyczna realizowana przez studentaw dowolnym czasie pomiędzy jednym a drugimspotkaniem z nauczycielem, posiada mechanizmkomunikacji asynchronicznej (forum) dowymiany pytań, uwag i sugestii oraz mechanizmdostarczania wykonanych zadań (dokumentówokreślonych aplikacji) do nauczyciela (wysyłanieplików);! weryfikacja wiedzy – możliwość monitorowaniapostępów studenta poprzez oceny zadań48 e-<strong>mentor</strong> nr 2 (24)


Efektywność projektu LAMS WZiEU – studium przypadku(wymiana dokumentów), podglądu i ocenywypowiedzi na forum, testów, ankiet i pytańotwartych umożliwiających weryfikację wiedzy,zarówno cząstkowej (testy tygodniowe podczaspracy domowej studenta), jak i kompleksowej(np. test wiedzy teoretycznej z wykładów w systemieLAMS podczas zajęć laboratoryjnych).<strong>Ocena</strong> projektu LAMS WZiEUDo oceny I etapu projektu wykorzystane zostałyczynniki determinujące w sposób zasadniczy jego istotę,a więc określające nakłady poniesione w celu uruchomieniai realizacji projektu oraz czynniki edukacyjne,określające jakość dydaktyczną przedmiotu orazsatysfakcję nauczycieli i studentów. Tabela i wykres 1.zawierają informacje na temat poniesionych nakładów(w osobogodzinach) podczas prac przygotowawczychnad uruchomieniem pierwszego przedmiotu w trybienauczania komplementarnego.Tabela 1. Poniesione nakłady w osobogodzinachLp.ZadanieNakłady(w osobogodzinach)1Opracowanie i test polskiejwersji językowej systemu LAMS302 Instalacja systemu LAMS 103Opracowanie merytoryczneprzedmiotu154Opracowanie metodologicznei elektroniczne kursu805 Test kursu 5Razem 130Źródło: opracowanie własneWykres 1. Poniesione nakłady w osobogodzinachŹródło: opracowanie własnePodczas analizy danych pochodzących z innychprojektów e-learningowych realizowanych w Polscei na świecie, można zaobserwować, iż najwięcejnakładów pochłania metodologiczne i elektroniczneopracowanie kursów. Podobnie było przy projekcieLAMS WZiEU. Jak wynika z przedstawionych informacji,najwięcej nakładów zostało poniesionych w celuprzełożenia wybranych zagadnień przedmiotu najęzyk narzędzi e-learningowych (animacji, testów,forum, zadań itp.).Tabela 2. Porównanie metod – badania ankietowenauczycieli<strong>Ocena</strong>Przygotowanie planu zajęćlaboratoryjnychOpracowanie i dystrybucjamateriałów dydaktycznychdo zajęć na żywoOpracowanie i dystrybucjazadań domowych i materiałudo samokształceniaMetodatradycyjnaBlendedlearning3 3,52,3 42 5Weryfikacja wiedzy i zadańdomowych1,5 5Komunikacja ze studentami 1 4Administracja 2 3Źródło: opracowanie własneRazem 11,8 24,5Należy jednak wyraźnie podkreślić, iż w przypadkuzakupu (lub dzierżawy) komercyjnej <strong>platformy</strong>e-learningowej oraz opracowania materiałów dydaktycznychprzez zewnętrzną firmę, poniesionekoszty byłyby znacznie większe.Powstaje natomiast pytanie o jakośćprzyjętych rozwiązań, a więco funkcjonalność wybranej <strong>platformy</strong>i jakość opracowanego e-kursu.Za odpowiedź niech posłuży analizadanych pochodzących z badańankietowych (przeprowadzonychza pomocą systemu LAMS), w którychwzięli udział studenci (jakośće-kursów) oraz nauczyciele prowadzącyzajęcia w formie tradycyjneji blended learning (funkcjonalność<strong>platformy</strong>).Badanie ankietowe zostało przeprowadzonena grupie siedmiunauczycieli, prowadzących zajęciaz przedmiotu Podstawy Informatykimetodą tradycyjną oraz blendedlearning. Oczywiście mała liczbakwiecień 2008 49


e-edukacja w krajurespondentów może wskazywać na brak obiektywnychwyników badania, niemniej jednak wydaje się,że uzyskane wyniki mogą być punktem wyjścia dopogłębionej analizy. Główne zalety zauważone przeznauczycieli to: realizacja przedmiotu w takim samymukładzie przez wszystkich prowadzących, dużawygoda prowadzenia zajęć (większość materiałówdydaktycznych została opracowana wcześniej), łatwaforma dystrybucji wiedzy i zadań, komunikacjaze studentami poza zajęciami na żywo. Jak wynikaz tabeli 2., porównanie metody tradycyjnej i blendedlearning wypada zdecydowanie na korzyść tej drugiej(nauczyciele oceniali w skali od 0 do 5).Co ciekawe, w otwartych pytaniach o wadynauczania mieszanego najczęściej pojawiały sięodnośniki nie do samej metody, ile do <strong>platformy</strong>e-learningowej. Najczęściej pojawiające się spostrzeżeniadotyczyły: łatwiejszego administrowaniagrupami i użytkownikami oraz większej ilości narzędziwspomagających proces dydaktyczny, takich jakstatystyki indywidualne i zbiorcze. Wnioski końcowesą bardzo budujące. Zarówno platforma e-learningowa,jak i sposób prowadzenia zajęć, zostałyzaakceptowane i docenione przez prowadzącychzajęcia. Powrót do formy tradycyjnej wydaje się małoprawdopodobny.Bardzo ciężko jest ocenić jakość edukacyjną zrealizowanegoszkolenia, a zwłaszcza jego efektywność.Jako punkt wyjścia do analizy omawianego problemuprzyjęto badania ankietowe przeprowadzone na grupieokoło 150 studentów, którzy brali udział w szkoleniurealizowanym metodą blended learning.Jak wynika z przeprowadzonych badań, ogólnaocena efektywności i jakości metody mieszanej jestprawie dwukrotnie wyższa niż nauczania tradycyjnego.Według studentów blended learning sprawdza sięWykres 2. Porównanie metody tradycyjnej i blended learningŹródło: opracowanie własneWykres 3. Popularność narzędzi e-learningowychŹródło: opracowanie własne50 e-<strong>mentor</strong> nr 2 (24)


Efektywność projektu LAMS WZiEU – studium przypadkulepiej w każdym elemencie procesu dydaktycznego,za wyjątkiem komunikacji. Wydaje się, że jest toważna wskazówka, którą należy uwzględnić przyprojektowaniu kolejnych e-kursów. Niezbędne są rozwiązaniakomunikacji synchronicznej (np. czat, a nietylko forum dyskusyjne) lub, idąc dalej, narzędziae-konsultacji (np. audio i wideo online).Badania ankietowe obejmowały także popularnośćzastosowanych rozwiązań i wykazały, iżw zdecydowanej większości najbardziej przydatnymnarzędziem według studentów były animowaneprzewodniki, a więc animacje Flash, zamieszczonena tablicy (narzędzie systemu LAMS) <strong>platformy</strong>e-learningowej. Dużą popularnością cieszyły siętakże forum i narzędzie eksplorowania stron WWW(o podobnej tematyce) jako naturalne sposobyszukania i przyswajania informacji dla studentóww wieku 19–21 lat. Na poziomie 30 proc. ocenionezostało narzędzie pobierania zadań i ich odesłaniado nauczyciela.Natomiast narzędzia, które w bezpośredni sposóbprowadziły do weryfikacji pracy studenta (ankiety,testy) zostały ocenione na poziomie niższym niż15 proc. Badania potwierdzają, że studenci najchętniejkorzystają z narzędzi interaktywnych (animacje)oraz tych, które w niekontrolowany sposób umożliwiająprzepływ informacji i komunikację (forum,eksploracja stron WWW).PodsumowanieEtap I projektu LAMS WZiEU został zakończony.Ogólna ocena efektywności metod nauczania wykorzystującychnowoczesne narzędzia teleinformatycznejest pozytywna, zarówno w opinii nauczycieli,jak i studentów. Nakłady poniesione przez WydziałZarządzania i Ekonomiki Usług wydają się niewielkiew stosunku do osiągniętych wyników. PlatformaLAMS nie jest narzędziem doskonałym, jednak stanowiciekawą alternatywę dla rozwiązań komercyjnych,zwłaszcza na początku e-learningowej drogi.W marcu 2008 roku rozpoczął się II etap projektuobejmujący – zakup i instalacje nowego, dedykowanegoserwera e-larningowego, instalację kolejnejwersji systemu LAMS (z nowymi możliwościaminieliniowego projektowania procesów dydaktycznych),ewaluację przedmiotu Podstawy Informatykioraz opracowanie dwóch kolejnych przedmiotów donauczania w trybie blended learning.Autor jest adiunktem w Katedrze EfektywnościInnowacji Wydziału Zarządzania i Ekonomiki UsługUniwersytetu Szczecińskiego. Interesuje się szerokorozumianym wykorzystaniem nowoczesnych technologiiteleinformatycznych w przedsiębiorstwie. Obecniewspółpracuje z Centrum E-learningowym InnowacyjnegoUniwersytetu Macquarie z Sydney nad polską wersjąsystemu LAMS.PolecamyIEEE International Workshop on Mobile,Ubiquitous and Classroom Technology EnhancedLearning (MUCTEL2008)11–13 czerwca 2008 r., Taichung, TajwanMiędzynarodowe warsztaty MUCTEL 2008 są organizowanewspólnie z konferencją The IEEE InternationalConference on Sensor Networks, Ubiquitous, and TrustworthyComputing (SUTC2008). Nauczanie mobilne to kolejnyetap rozwoju, po nauczaniu online, z wykorzystaniemkomputera, pozwalający na przejście od uczenia sięw każdym czasie i miejscu do bycia w odpowiednim czasiei miejscu z odpowiednimi zasobami i społecznością.Wybrane tematy konferencji, proponowane do dyskusjiprzez organizatorów to: architektura i systemy nauczaniapeer-to-peer, modele pedagogiczne, standardy i społecznościw mobilnym nauczaniu.Więcej informacji na: http://muctel2008.nutn.edu.twICELW 2008 The International Conferenceon E-learning in the Workplace12–13 czerwca 2008 r., Nowy Jork, USAPodczas konferencji ICELW 2008 poddanych dyskusjibędzie wiele kwestii z obszaru zastosowania e-learninguw pracy, w tym: metodologia szkoleń online, mobile learning,projektowanie i ocena użyteczności e-learningu,strategie wdrażania edukacji na odległość, narzędzia autorskiei aplikacje LCMS, ewaluacja, praktyka. Konferencjaadresowana jest do osób posiadających doświadczeniew zastosowaniu e-edukacji w miejscu pracy – zarównodo badaczy i konsultantów, jak również trenerów korporacyjnych,menedżerów i dyrektorów. Więcej informacjina: http://www.icelw.org/home.htmICEL 2008, 3rd International Conference one-Learning, 26–27 czerwca 2008 r.University of Cape Town, Cape Town, RPAJuż po raz trzeci Uniwersytet Cape Town organizuje międzynarodowąkonferencję nt. e-learningu ICEL. Na spotkaniezaproszeni są badacze, praktycy i naukowcy, którzychcieliby zaprezentować wyniki swoich badań, a takżeprzedyskutować nowe koncepcje dotyczące obszarów,w których krzyżuje się ze sobą edukacja i technologia.Konferencja ma na celu znalezienie nowych sposobów napołączenie nauki z praktyką, w tym zrozumienia przeznaukowców aktualnych problemów, rzeczywistych potrzebi wyzwań stawianych przed osobami zajmującymisię e-learningiem w praktyce.Więcej informacji na: http://academic-conferences.org/icel/icel2008/icel08-home.htmkwiecień 2008 51


zarządzanie wiedząRozwój organizacji uczącej sięa zarządzanie talentamiJoanna TaborW artykule dokonano zestawienia koncepcji organizacjiuczącej się z elementami modelu zarządzania talentamioraz analizy zależności występujących między nimi w kontekścierozwoju przedsiębiorstwa. Scharakteryzowanoprocesy wspólne oraz przedstawiono możliwości wykorzystaniaich dla wsparcia rozwoju kompetencji pracownikóww ramach kształcenia ustawicznego. Analizie poddanorównież wpływ niniejszych koncepcji na zdobywanie przewagikonkurencyjnej przedsiębiorstwa.Zarządzanie talentami (ZT) wymienia się wśród najważniejszychświatowych trendów, które będą wpływaćna politykę rozwoju zasobów ludzkich w najbliższychlatach 1 . Tendencja ta widoczna jest również w Polsce,czego rezultatem jest podkreślanie potrzeby tworzeniaspecjalnych programów rozwoju dla pracownikówo największym potencjale. Zarządzanie talentami, obokzarządzania efektywnością oraz wspierania równowagimiędzy życiem zawodowym a osobistym, uznaje sięza jedno z trzech głównych wyzwań strategicznegozarządzania zasobami ludzkimi (ZZL) 2 . Aż 94 proc.respondentów badań stowarzyszenia ConferenceBoard i firmy House of Skills, tj. polskich dyrektorówpersonalnych, twierdzi, iż proces zarządzania talentamizyska w najbliższych latach na znaczeniu 3 . Podobnyobraz wyłania się z badań Accenture 4 , jak równieżAssociation of Chartered Certified Accountants (ACCA)– 85 proc. ankietowanych przez Stowarzyszenie uważa,iż zainteresowanie ZT będzie stale rosnąć 5 .Czy wprowadzenie systemu zarządzania talentamipomaga organizacji jedynie w pozyskaniu osóbo wysokim potencjale oraz umożliwia nakreśleniedla nich odpowiednich ścieżek kariery? Innymi słowy– czy systemy ZT dotyczą wyłącznie wąskiego gronaspecjalistów? W dobie rosnącego znaczenia wiedzyi popularyzacji kształcenia ustawicznego, a takżedążenia do przekształcania przedsiębiorstw w organizacjeuczące się, warto przeanalizować, jaki może byćszerszy wpływ ZT na procesy uczenia się i podnoszeniecałościowych kompetencji przedsiębiorstwa.Organizacja ucząca sięPojęcie organizacji uczącej się (OU) pojawiłosię w literaturze wraz z publikacją Petera Senge’aPiąta dyscyplina – miała to być organizacja zdolnado uczenia się, nastawiona na ciągły rozwóji przekształcająca się w celu adaptowania do zmiennegootoczenia, co jest możliwe m.in. dzięki doskonaleniusię jej pracowników oraz otwartości na noweidee i koncepcje. Dyscypliny Senge to: mistrzostwoosobiste, wspólna wizja, zespołowe uczenie się,modele myślowe oraz myślenie systemowe (piątadyscyplina łącząca wszystkie inne).Publikacja P. Senge’a wywołała ogromne zainteresowanietematyką organizacyjnego uczenia się orazstała się przyczynkiem do dyskusji nad definicjamii modelem OU. Jedno z opracowań charakteryzującychOU powstało podczas czternastego seminariumEuropejskiego Komitetu Doradczego CEIES, na którymwyróżniono dziesięć wskaźników charakteryzującychorganizację uczącą się XXI wieku:! może to być firma, stowarzyszenie, uniwersytet,szkoła, miasto, naród lub każda, mała czy licznagrupa osób, która ma potrzebę udoskonalaniaprzez uczenie się 6 ,! OU inwestuje w swoją przyszłość przez edukacjęi szkolenia swoich członków,1ZT zajmuje pierwsze miejsce na liście koncepcji przewodnich w tym obszarze, wg J.J. Matthews, D. Megginson,M. Surtees, Rozwój zasobów ludzkich, Helion, Gliwice 2008.2K. Kwiecień, Zarządzanie talentami w międzynarodowych korporacjach [w:] S. Borkowska (red.), Zarządzanie talentami,IPiSS, Warszawa, 2005.3Pełny raport: Zarządzanie talentami: Wyzwania, trendy, przykłady rozwiązań dostępny jest na stronie:http://www.conference-board.org/pdf_free/report_zarzadzanieTalentami.pdf [15.02.2008].4M. Jankowicz, Talenty potrzebne od zaraz, „Personel i Zarządzanie” 2005, nr 5.5ACCA Global Survey Report 2006, Talent management in the finance profession, http://www.accaglobal.com/pubs/employers/approved/services/employers/develop/professional_insight/talent_management.pdf [17.03.2008].6Por. J.A. Fazlagić, Polska szkoła jako organizacja ucząca się, „e-<strong>mentor</strong>” 2005, nr 3 (10).52 e-<strong>mentor</strong> nr 2 (24)


Rozwój organizacji uczącej się a zarządzanie talentami! tworzy możliwości i zachęty do rozwoju potencjałudla wszystkich członków na wszystkichstanowiskach,! dzieli się z nimi wizją jutra i stymuluje ich dowyzwań, do zmiany i włączania się w rozwój,! łączy pracę z uczeniem się,! mobilizuje talenty przez położenie nacisku nauczenie się oraz planowanie edukacji i szkoleń,! daje wszystkim członkom możliwość rozwojuhoryzontów, w harmonii z własnymi preferowanymistylami uczenia się,! stosuje nowoczesne technologie w edukacji,! odpowiada aktywnie na szersze potrzeby środowiskai społeczności, wśród których działa,i zachęca do tego swych członków,! uczy się nieprzerwanie w celu pozostania innowacyjną,twórczą, ożywczą i na topie 7 .Analizując tę kompleksową definicję, warto podkreślićzałożenie, iż równolegle z zapewnieniemwszystkim członkom możliwości rozwoju, wyróżniasię talenty i mobilizuje je do włożenia szczególnegowysiłku w edukację w celu doskonalenia się.Do procesów zarządzania talentami odnosi sięrównież B. Mikuła 8 , według którego w organizacjiuczącej się główną rolę w systemie zarządzania przestająodgrywać tradycyjne funkcje przedsiębiorstwa(marketingowa, finansowa, personalna, produkcyjna,itd.), a ich miejsce zajmują nowe podsystemy zarządzania,takie jak: zarządzanie twórczością, zarządzaniewiedzą, zarządzanie zmianą, zarządzaniekompetencjami, zarządzanie talentami, zarządzanieinnowacyjno-partycypacyjne, zarządzanie jakością.Wszystkie te części są powiązane zarządzanieminformacjami oraz komunikacją i należy je traktowaćjako całość, gdyż posiadają wspólne obszaryoddziaływania. Wdrożenie i prowadzenie zarządzaniatalentami traktuje się więc jako jedną z częścitworzenia organizacji uczącej się. B. Mikuła uznaje,że ciągły pościg za talentami powinien być głównąstrategią organizacji 9 . Zwraca też uwagę na cechęodróżniającą ZT od zarządzania kompetencjami(ZK) czy zarządzania zasobami ludzkimi (ZZL). Podczasgdy w ZZL i ZK ustala się, jakich kompetencjibrakuje pracownikom i uzupełnia je w procesachszkoleniowych, w zarządzaniu talentami skupiamysię na udoskonalaniu talentów, a więc wybitnychumiejętności i specyficznych uzdolnień, które danaosoba już posiada. Uznaje on więc tym samym zarządzanietalentami jako koncepcję odmienną odzarządzania zasobami ludzkimi, podczas gdy często,ze względu na współzależności działań, traktuje sięZT jako strategiczną funkcję ZZL.Zarządzanie talentami: kształceniepracowników czy promowanie gwiazd?Zarządzanie talentami, zagadnienie, które w Polscewciąż traktowane jest jako nowe, pojawiło się po razpierwszy w USA już w latach 80. To wówczas, przybraku osób mogących zapewnić ciągłość sukcesjinajwyższych stanowisk oraz specjalistów i ekspertówz doświadczeniem i wiedzą, zainteresowano sięrekrutowaniem i szczególnym traktowaniem osóbo wysokim potencjale, które mogły w dużym stopniuprzyczynić się do rozwoju firmy i wzmocnienia jejkonkurencyjności na rynku. Zagadnienie to zostałojednak wypromowane dopiero pod koniec lat 90.,kiedy to ogłoszono stan „wojny o talenty” (The Warfor Talent) – zauważono, że liczba bardzo zdolnychosób jest bardzo ograniczona, i że sukcesem firmyjest zwyciężenie z innymi przedsiębiorstwami na rynkuglobalnym, w przyciąganiu do siebie najlepszychkandydatów.Ed Michaels i in. podsumowali obraz zmian, wyróżniająccechy charakterystyczne starej rzeczywistościoraz stanu obecnego, koncentrując się na aspektach,które powodują zwiększenie roli osób szczególnieutalentowanych w organizacjach.Tabela 1. Stara i nowa rzeczywistość w dobie walkio talentyStara rzeczywistość1. Ludzie potrzebująfirm.2. Maszyny, kapitałi lokalizacjato przewagikonkurencyjne.3. Posiadanie lepszychtalentów wyróżnia.4. Stanowiska torzadkie dobro.5. Pracownicy są lojalnii stanowiska sąbezpieczne.6. Ludzie akceptująstandardowy pakiet,który się im oferuje.Nowa rzeczywistość1. Firmy potrzebująludzi.2. Utalentowani ludziestanowią przewagikonkurencyjne.3. Posiadanie lepszychtalentów ogromniewyróżnia.4. Talenty to rzadkiedobro.5. Ludzie są mobilni,a ich zaangażowaniekrótkoterminowe.6. Ludzie żądają dużowięcej.Źródło: E. Michaels, H. Handfield-Jones, B. Axelrod, „The Warfor Talent”, Harvard Business School Press, Boston 2001, s. 6W nowej rzeczywistości, scharakteryzowanej przezE. Michaelsa i in., wyraźnie zmieniają się wartościi wagi poszczególnych elementów. Dawniej ludzie7Materiały z 14. seminarium CEIES Measuring lifelong learning, Włochy, 25–26 czerwca 2001 r., Luksemburg: Officefor Official Publications of the European Communities, 2002, http://epp.eurostat.ec.europa.eu/cache/ITY_PUBLIC/KS-PB-02-002/EN/KS-PB-02-002-EN.PDF [12.02.2008].8B. Mikuła, Elementy nowoczesnego zarządzania. W kierunku organizacji inteligentnych, Antykwa, Kraków 2001, s. 56.9Tamże.kwiecień 2008 53


zarządzanie wiedząpotrzebowali firm, aby znaleźć źródło utrzymania,podczas gdy obecnie to pracodawcy muszą staraćsię zaoferować jak najlepsze warunki, aby wybitnikandydaci wybrali ich przedsiębiorstwo. Talenty,w miejsce maszyn, kapitału i lokalizacji, stają się największąprzewagą konkurencyjną firmy. Posiadanietalentów ogromnie wyróżnia na rynku, lecz cechącharakterystyczną nowej rzeczywistości jest równieżto, że osoby te są niezwykle mobilne i na pracodawcyspoczywa obowiązek dbania o nie, gdyż w przeciwnejsytuacji mogą zmienić miejsce pracy na takie, któreoferuje im potencjalnie lepsze warunki rozwoju.T. Listwan z kolei definiuje zarządzanie talentamijako: [...] zbiór działań odnoszących się do osób wybitnieuzdolnionych, podejmowanych z zamiarem ich rozwojui sprawności oraz osiągania celów organizacji 10 . Zbiór tendzieli, zgodnie z cyklem organizacyjnym, na:! działania związane z wejściem do organizacji(pozyskiwanie talentów),! przejście (w którym dokonuje się transformacja,a więc procesy zarządzania karierą, doskonaleniakwalifikacji, rozwoju kompetencji),! wyjście (odejścia talentów, ale też działania narzecz ich zatrzymania w organizacji).Tak skonstruowana definicja uzmysławia zarządzającym,jakie główne zadania są przed nimi postawione:na początku powinni wyszukać i zatrudnić utalentowaneosoby, następnie dbać o ich rozwój, motywowaći wspierać podczas podnoszenia kwalifikacji (a także,co chyba najważniejsze, kierować ich karierą w takisposób, aby przyczyniała się ona do zwiększeniakonkurencyjności przedsiębiorstwa na rynku), a nakoniec – zarządzać procesami odchodzenia pracownikóworaz budować systemy, które sprawią, żenajcenniejsi pracownicy zdecydują się na pozostaniew organizacji.O ile etapy pierwszy – pozyskiwanie talentówi ostatni – zarządzanie procesami odchodzenia pracownikówsą z pewnością kluczowe dla organizacji,tym niemniej najbardziej pracochłonna, ale jednocześniepotencjalnie najbardziej owocna wydaje się właśnieowa transformacja, czyli „szlifowanie diamentu”,przechodzenie od potencjału do ideału. W jej ramachznajduje się ułożenie strategicznej ścieżki rozwoju,dokonanie wyboru pomiędzy możliwymi formamikształcenia i sposobami pozyskiwania wiedzy, a także,co nie mniej istotne, uzyskanie motywacji i wsparcia.Celem jest zarówno wykształcenie w pracowniku,uznanym za talent, „twardych” i mierzalnych kompetencji,jak również doskonalenie jego umiejętności„miękkich” oraz ciągłe wspieranie jego motywacjii chęci rozwoju. Wybrane przykłady programów rozwojutalentów, które są stosowane w polskich przedsiębiorstwach,zostały zaprezentowane w tabeli 2.Agata Kaczmarska i Łukasz Sienkiewicz w swojejdefinicji zwracają uwagę na fakt, że program zarządzaniatalentami [...] powinien mieć charakter holistyczny,bazujący na współzależnościach wielu procesów, do którychnależą planowanie zatrudniania, dobór, utrzymaniepracowników (w tym systemy motywacyjne), rozwójpotencjału, ocena efektów pracy, planowanie kariery 11 .Również oni podkreślają, że programy ZT nie mogąbyć nastawione wyłącznie na pozyskanie utalentowanychosób, gdyż zapewnia to tylko tymczasowerozwiązanie problemu. Niezwykle istotne jest efektywnewykorzystanie kompetencji tych pracownikówdla potrzeb strategicznych firmy.W literaturze pojawiło się również, za sprawąW.J. Rothwella i H.C. Kazanasa, pojęcie strategicznegorozwoju talentów (Strategic Development of Talent – SDT).Definiują oni SDT jako: [...] proces zmiany organizacji,zewnętrznych interesariuszy, grup wewnętrznych i pracownikówprzez zaplanowane i niezaplanowane uczenie w takisposób, aby posiedli oni kompetencje niezbędne do wsparciaorganizacji w osiąganiu i utrzymywaniu przewagi konkurencyjnej12 . Jak widać, podejście to daje nam o wiele szerszyobraz zarządzania talentami. Autorzy nie ograniczająsię do grona pracowników przez stworzenie dla nichspecjalnych ścieżek rozwoju kariery, lecz wskazująna konieczność prowadzenia całościowego procesuzmiany organizacji, uwzględniającego zarówno grupywewnętrzne, jak i zewnętrzne, mające być zaangażowanewe wzmacnianie jej przewagi konkurencyjnej.W.J. Rothwell i H.C. Kazanas mówią o zaplanowanymoraz niezaplanowanym uczeniu się, nie mając na myślijedynie szkoleń czy studiów podyplomowych dlawybitnych. Niezaplanowane uczenie się i kształcenienieformalne będzie powiązane z transferem wiedzymiędzy poszczególnymi grupami, podczas wspólnejpracy i przy rozwiązywaniu problemów organizacji,a także prowadzeniu strategicznych projektów. CelSDT pozostaje jednakowoż niezmienny – wciąż najważniejszejest uzyskiwanie kompetencji potrzebnych doosiągania i utrzymania przewagi konkurencyjnej.Podział ról w organizacji zarządzającejtalentamiCzynnikiem sukcesu zarówno rozwoju organizacjiuczącej się, jak również efektywnego zarządzaniatalentami jest istnienie odpowiedniej kultury organizacyjnej,w której poszczególne grupy osóbodgrywają określone role. Sednem nie jest przecieżjedynie zaopatrzenie się w nowoczesne systemyzarządzania wiedzą czy wdrożenie ITC w procesyszkoleniowe. Najważniejszym czynnikiem są ludziei to ich nastawienie do zmian zachodzącychw organizacji będzie ostatecznie decydującym kry-10T. Listwan, Zarządzanie talentami – wyzwanie współczesnych organizacji [w:] S. Borkowska (red.), Zarządzanie talentami,IPiSS, Warszawa, 2005.11A. Kaczmarska, Ł. Sienkiewicz, Identyfikacja i pomiar talentu w organizacjach [w:] S. Borkowska (red.), Zarządzanietalentami, IPiSS, Warszawa, 2005.12W.J. Rothwell, H.C. Kazanas, The Strategic Development of Talent, HRD Press, 2003.54 e-<strong>mentor</strong> nr 2 (24)


Rozwój organizacji uczącej się a zarządzanie talentamiTabela 2. Przykłady polskich firm, które stosują systemy zarządzania talentami bądź ich elementy(w kolejności alfabetycznej)Nazwa firmyBank MilleniumS.A.BRE BankCarlsberg PolskaGSK PharmaING PolskaLOTOS S.A.MasterfoodsPKN Orlen S.A.Polska TelefoniaCyfrowa Sp. z o.o.SAP PolskaSygnity(ComputerLand +Emax)UnileverOpis działań w zakresie zarządzania talentamiDla pracowników o największym potencjale istnieją Programy Rozwojowe: specjalnie dobraneszkolenia ukierunkowane na rozwój kluczowych kompetencji. Nad rozwojem czuwa <strong>mentor</strong>w osobie Członka Zarządu. Dwa razy w roku specjalnie dla nich organizowane jest ForumRozwojowe.Dla najlepszych pracowników, wyłonionych podczas rocznej oceny, ustala się IndywidualneProgramy Rozwoju. Otrzymują oni również własny fundusz szkoleniowy dla realizacji inicjatywrozwojowych.Istnieją programy rozwoju kluczowych pracowników, tworzy się plany sukcesji, rekrutujei rozwija talenty na wszystkich poziomach w organizacji. Ideą programów jest, by talentyswoją postawą dawały przykład innym.Wdrożono program „Talent Management”, rozwój karier zakłada m.in. obejmowanie stanowiskz pewnym wyprzedzeniem, co daje dodatkową motywację do szybkiego uzupełnienia lukikompetencyjnej i efektywniejszego uczenia się.W ramach programu „Talent Management”, po identyfikacji talentów na bazie IndywidualnegoPlanu Rozwoju, realizowane są: coaching, szkolenia, poszerzanie odpowiedzialności lubpowierzanie nowych zadań, zmiana stanowiska. Istnieje również międzynarodowa bazatalentów ING Talent Track.Istnieją wyodrębnione programy: Program Indywidualnych Ścieżek Rozwoju, Program KadryRezerwowej, Program ABSOLWENT, Akademia LOTOS.Talenty wyłania się w procesie rocznej oceny, ze względu na zdolność uczenia się orazskuteczność realizowanych zadań. Zapewniany jest rozwój przez m.in. zlecanie nowychzadań i uczestnictwo w projektach międzynarodowych.W ramach programu „Young Talents” wyłania się, a następnie szkoli w zakresie generalmanagement pracowników ze szczególnym potencjałem. Istnieje również Akademia BiznesuPKN, zwana mini-MBA, której absolwentom proponuje się indywidualne plany rozwoju.Dla najlepszych pracowników, których kompetencje oraz zaangażowanie w powierzaneprojekty i zadania zostały ocenione przez przełożonych jako nieprzeciętne, istnieje program„XL Talent”: szkolenia, studia finansowane przez firmę bądź staże w firmie lub zagranicą,uczestnicy realizują indywidualny plan rozwoju dopasowany do szczegółowych potrzeb.Wdrożono elitarny program zarządzania talentami, w którym corocznie uczestniczy jedyniekilka osób. Limitowany udział powoduje, że jest odbierany jako wyznacznik sukcesu.Zapewniany jest rozwój w ramach uczestnictwa w wyjątkowych przedsięwzięciach.Dokonuje się identyfikacji talentów i dzieli je na dwie grupy: młodzi pasjonaci i doświadczenipracownicy. Realizowany jest program „Mistrz-Uczeń”, szkolenia, udział w innowacyjnychprojektach, też zagranicznych, przynależność do Strategicznych Jednostek Biznesowych.W ramach Business Leaders Development Programme wyłania się, na podstawie kompetencjioraz dotychczasowych wyników i osiągnięć, najlepszych pracowników i dla każdej osobytworzy plan rozwoju: szkolenia, Development Centre.Źródło: opracowanie własne na podstawie raportu badawczego Conference Board, „Zarządzanie talentami: Wyzwania, trendy,przykłady rozwiązań” oraz stron internetowych instytucjiterium osiągnięcia sukcesu. Bogusz Mikuła zwracawręcz uwagę na „czworokąt sukcesu uczenia sięorganizacji” 13 – na jego bokach znajdują się: wiedza,umiejętności jej zastosowania, motywacja ludzi orazwewnętrzne uwarunkowania organizacji. Uczeniesię jest więc nierozłącznie związane z ludźmi, ichnastawieniem, sposobem myślenia, postrzeganiemsytuacji, w jakiej się znajdują i decydowaniem,w jaki sposób przyczynią się, bądź nie, do rozwojuorganizacji.W literaturze podkreśla się, że nie może istnieć efektywnysystem zarządzania talentami bez całkowitego13B. Mikuła, Organizacje oparte na wiedzy, Wydawnictwo Akademii Ekonomicznej w Krakowie, Kraków 2006, s. 50.kwiecień 2008 55


zarządzanie wiedząpoparcia dla niego kadry zarządzającej organizacją. Tozałożenie można odnieść również do procesu zmianyprzedsiębiorstwa w organizację uczącą się. Tworzenieodpowiedniej kultury – przede wszystkim współpracyi dzielenia się wiedzą, a także pokazywanie najlepszychwzorców oraz, co dość przyziemne, również podejmowaniedecyzji o kierowaniu określonych, niemałychśrodków finansowych na wdrażanie procesów uczeniasię – musi być rolą najwyższego kierownictwa. Jednymz najważniejszych jego zadań jest również nakreśleniestrategicznych celów organizacji oraz wyróżnienie kompetencji,jakie są niezbędne, aby te cele osiągnąć.Kolejną grupą istotną w czasie planowania,wdrażania i organizacji procesów uczenia się sąmenedżerowie HR, menedżerowie ds. szkoleń,specjaliści ds. zarządzania wiedzą oraz specjaliścids. talentów. Niektóre z tych stanowisk są dopierow polskich przedsiębiorstwach tworzone, jednakz pewnością zapotrzebowanie na osoby o takichkompetencjach będzie rosnąć 14 . Pracownicy ci sąodpowiedzialni za zdefiniowanie procesów niezbędnychdo osiągnięcia pożądanych kompetencji, alerównież przyczyniają się do kształtowania wizerunkufirmy jako organizacji nastawionej na podwyższaniekwalifikacji, kształcenie ustawiczne, procesy dzieleniasię wiedzą oraz ciągłego uczenia się. Współdecydująo wyborze ścieżki rozwoju, jaką organizacja będziepodążać, są odpowiedzialni za tworzenie całościowychprocesów szkoleniowych oraz wspieranie pracownikóww doborze odpowiednich form kształceniai zdobywania wiedzy.Szczególną rolę w rozwoju i podnoszeniu konkurencyjnościorganizacji pełnią „gwiazdy”, a więctalenty, eksperci, najwybitniejsi specjaliści. Ich najważniejszymzadaniem jest odpowiednie kształtowaniei wykorzystanie na rzecz firmy własnego potencjału– wiedzy deklaratywnej, którą wnoszą do organizacji,dotychczasowych informacji i doświadczeń.Oczekuje się, że talenty wyselekcjonowane z gronakandydatów (najczęściej w postaci najlepszych absolwentów),wyłonione spośród obecnych pracowników(za wybitne dotychczasowe osiągnięcia) lub przejętez innej firmy (w ramach wojny o talenty) wpłyną nazwiększenie efektywności i polepszenie pozycji przedsiębiorstwana rynku. Innym nurtem jest budowaniez grona talentów zastępczej kadry, przygotowywanejdo kierowania organizacją w przypadku utraty któregośz najwyższych menedżerów. W tym przypadku należyjednak działać rozważnie, gdyż nie każdy specjalistawyposażony w ogólną wiedzę z zarządzania ludźmisprawdzi się na stanowisku kierowniczym.Zarówno w przypadku przejęcia talentu z innejfirmy, jak również kształcenia młodych talentów naekspertów mogących zapewnić organizacji przyrostkompetencji i wiedzy, niezbędne jest włączenie doich procesów szkoleniowych, obok kształcenia formalnego,również wsparcia ze strony doświadczonychpracowników organizacji, co jest z reguły realizowanew postaci coachingu lub <strong>mentor</strong>ingu. Wiele przedsiębiorstwzapewnia talentom – w ramach programówrozwojowych – stałe spotkania z wyznaczonym specjalniedla nich <strong>mentor</strong>em, który z jednej strony możesłużyć radą odnośnie bieżących działań, a z drugiejprzekazuje ogólną wiedzę odnośnie organizacji i stanowiwzorzec do naśladowania.Według założeń organizacji uczącej się, każdypracownik powinien dążyć do rozwoju, generowaniawiedzy, tworzenia nowych rozwiązań i poczuciawspółodpowiedzialnym za doskonalenie organizacji.Przy tej okazji warto zauważyć, że niektóre z przedsiębiorstwuważają za talenty wszystkich swoich pracowników,wychodząc z założenia, że już w procesierekrutacji wybrano te osoby, które mogą w najlepszysposób przyczynić się do podniesienia konkurencyjnościprzedsiębiorstwa. Podążając dalej tym tropem,należałoby uznać, że każdy, wykorzystując możliwościkształcenia oferowane przez firmę, ma możliwość dołączyćdo grona wybitnych. W dobie społeczeństwa informacyjnegoobowiązkiem wszystkich pracownikówpowinno być więc również dbanie o swój ustawicznyrozwój, dokształcanie się w swoich specjalizacjachi pozyskiwanie nowej wiedzy.Jak zarządzanie talentami może wspieraćrozwój organizacji uczącej się?Wprowadzenie do organizacji systemu zarządzaniatalentami wiąże się z koniecznością uruchomieniawspomnianych dodatkowych procesów podnoszeniakwalifikacji. Wyszukanie odpowiednich szkoleń,tworzenie zespołów pracujących wspólnie nad rozwiązaniemkonkretnego problemu, współpraca z uczelniamiwyższymi w zakresie tworzenia programówzwiększania kompetencji talentów, czy DevelopmentCentre dla menedżerów – te wszystkie aspekty, niezbędnedla rozwoju talentów, przyczyniają się równieżdo propagowania kultury uczenia się wśród innychpracowników. Wspomniano już, że często w firmachdla potrzeb wdrożenia systemu ZT – tworzy się nowestanowisko osoby odpowiedzialnej za wyszukiwaniei rozwój talentów (lub też takie zadania dodaje siędo kompetencji departamentu kadr). Osoba ta działajak katalizator i uruchamia w organizacji dodatkowypotencjał (nierzadko dotąd uśpiony) – wspiera działypersonalne w tworzeniu (w miejsce pojedynczychszkoleń organizowanych ad hoc), całościowych programów,które nastawione są na zdobywanie kluczowychkompetencji; oceny pracownicze stają się istotnymelementem kwalifikacji do programu dla talentów;wyszukuje się i motywuje kolejne osoby do podnoszeniaswoich kwalifikacji i wskazuje im ścieżkę dalszegokształcenia w celu poprawy wyników. Jakkolwiek14Już dziś w polskich organizacjach tworzy się odrębne stanowiska bądź działy zajmujące się zarządzaniem talentami,np. Departament Rekrutacji i Zarządzania Talentami Banku Pekao SA, stanowisko Talent Management Director w INGczy Talent Development Manager w Masterfoods.56 e-<strong>mentor</strong> nr 2 (24)


Rozwój organizacji uczącej się a zarządzanie talentaminie wszyscy zostają włączeni do programu rozwojutalentów, to jednak dokonuje się tym samym zmianycałościowych procesów uczenia się przedsiębiorstwa– właśnie w kierunku organizacji uczącej się.Kolejnym zagadnieniem jest wpływ talentów nasposób działania organizacji. Trzeba podkreślić, żeosoby o najwyższym potencjale charakteryzują się nietylko doskonałymi wynikami, lecz także szczególnymicechami osobowości. Za liderów przyszłości – motorypostępu organizacji – uznaje się pracowników otwartych,budujących zespoły, myślących w kategoriachfirmy (a nie jedynie własnego stanowiska) i przyjmującychodpowiedzialność za całościowy jej rozwój,a także szybko adaptujących się do zmian. Są to pracownicyo wysokich zdolnościach komunikacyjnychi negocjacyjnych oraz umiejętności rozwiązywaniakonfliktów 15 . Jednak najistotniejsza w analizie wpływutych jednostek na tworzenie organizacji uczącej sięjest ich ciągła chęć rozwoju, doskonalenia się, pracyper se, ścigania się z samym sobą 16 . Talenty są napędemzespołu i organizacji. Wykazują niesłabnącą chęćmierzenia się z nowymi projektami i wyzwaniami,niestrudzonego wysiłku w budowaniu i poszerzaniuwłasnej wiedzy, a także dzielenia się nią z innymidla potrzeb uzyskania perfekcyjnych rezultatów.Tym samym, kreują w przedsiębiorstwie środowiskozdrowej rywalizacji i emanują dobrym przykłademustawicznego kształcenia oraz rozwoju.Nie ujmując nic z powyższego obrazu, należyzwrócić uwagę na fakt, że talenty nie zawsze od razusą ekspertami w swoich dziedzinach. Najczęściej toosoby o ponadprzeciętnych wynikach i ogromnympotencjale, które należy wyszkolić i przekazać impraktyczną wiedzę z zakresu specjalistycznych obszarówdziałania organizacji. Dlatego też w modelowychsystemach ZT nad rozwojem każdego talentu czuwa<strong>mentor</strong>. W procesach coachingu i <strong>mentor</strong>ingu, o czymjuż wspomniano, przekazywana jest wiedza cicha – zasóbpewnych doświadczeń, normy kulturowe organizacjii jej wartości. Dzięki temu wiedza transferowanajest na kolejne poziomy i ugruntowana w organizacji,co przyczynia się do wsparcia ogólnych procesówzarządzania wiedzą wdrażanych w organizacji 17 .Innym aspektem związanym z wiedzą jest jejgenerowanie i transfer w organizacji, zachodzącypodczas tych etapów szkolenia talentów, któreobejmują pracę zespołową, a w jej ramach wymianęwiedzy i uczenie się od siebie nawzajem. Dziękistosowaniu metod typu learning-by-doing, pracęw zespołach zdalnych, wymianę doświadczeń onlineczy instytucję sparingpartnerów 18 , uzyskuje się efektw postaci stworzenia nowego, doskonalszego produktuczy rozwiązania problemu lub wykreowania lepszejprocedury współpracy z klientem, a więc generujenową wiedzę w organizacji.Wreszcie na koniec aspekt marketingowy – przedsiębiorstwoczy instytucja decydująca się na wdrożeniesystemów zarządzania talentami zyskuje wizerunekorganizacji dbającej o podnoszenie kwalifikacji swoichpracowników, przykładającej dużą uwagę do kształceniaustawicznego i dzielenia się wiedzą wśród pracowników.I choć aspekt ten nie może przesłonić innych, ważniejszychzagadnień, z pewnością ma znaczenie dla potencjalnychklientów, współpracowników i pracowników.Potencjalne trudności i sposoby ichpokonywaniaPrzyciągnięcie do firmy talentów wiąże się, jakwynika z powyższej analizy, z wieloma pozytywnymiaspektami. Nie sposób jednak pominąć w tym opracowaniuomówienia sytuacji, które przedsiębiorstwomoże napotkać przy wdrażaniu systemów zarządzaniatalentami, a które mogą wpływać negatywnie na relacjew zespołach oraz pracę w organizacji.Jednym z głównych zagrożeń, wymienianym w literaturze,a wynikającym z błędnej strategii przyjętejprzez przedsiębiorstwo, jest niebezpieczeństwo wystąpieniafrustracji u osoby uczestniczącej w programierozwojowym, spowodowanej brakiem możliwościspożytkowania zdobytej wiedzy. Po okresie wzmożonegowysiłku, szkoleń czy studiów, ogromnegowkładu pracy, a także wielu wyrzeczeń, talent musizmierzyć się z nowym położeniem, w którym nie madla niego dalszych planów – brak jest pomysłu nawykorzystanie dodatkowych kompetencji. Aby niedopuścić do zaistnienia tego rodzaju sytuacji, przedsiębiorstwomusi posiadać strategiczne plany dotycząceosób o najwyższym potencjale, które uczestnicząw programach rozwojowych. Procesy ZT nie mogąbyć wprowadzane jedynie dla podniesienia prestiżuprzedsiębiorstwa lub wpisywania się w panująceobecnie trendy. Każdorazowo powinien być to wynikprzemyślenia strategii firmy i dążenia do wypracowaniakonkretnych kompetencji, które przełożą się nawyniki i podniesienie przewagi konkurencyjnej.Dodatkowo, niewątpliwym ryzykiem, na któreczęsto zwracają uwagę menedżerowie podczas po-15H. Guryn, Wyłanianie talentów, „Personel i Zarządzanie” 2007, nr 6.16W szerszym kontekście jest to realizowanie modelu motywacyjnego człowieka samorealizującego się. Por.T. Listwan, Zarządzanie talentami – wyzwanie współczesnych organizacji [w:] S. Borkowska (red.), Zarządzanie talentami,IPiSS, Warszawa, 2005.17Na konieczność rozwoju, w ramach procesów organizacyjnego uczenia się, trzech typów wiedzy: spersonalizowanej,skodyfikowanej i ugruntowanej zwraca uwagę B. Mikuła (Organizacje oparte na wiedzy, dz. cyt.). Dzięki zastosowaniuwszystkich trzech typów wiedza zostaje w organizacji nawet po odejściu pracowników, w postaci zbiorów dokumentów,baz danych, publikacji czy produktów.18Rozwiązanie zastosowane w jednej z firm polegające na stałym kontakcie i wymianie wiedzy pomiędzy osobamibędącymi na tych samych stanowiskach w różnych oddziałach jednego koncernu. Osoby te konsultują ze sobą wzajemnepomysły, działania, sposoby rozwoju.kwiecień 2008 57


zarządzanie wiedządejmowania decyzji o implementacji systemów ZT,istnieje możliwość podkupienia wyszkolonej już osobyprzez konkurencyjną firmę. Przy rozważaniu tegoniebezpieczeństwa podnoszone są kwestie kosztówponiesionych na doskonalenie danego pracownikaoraz wiedzy, którą może on przekazać rynkowymkonkurentom. Aby przeciwdziałać takim sytuacjomstworzono jeden z modułów zarządzania talentami,a więc zarządzanie procesami odchodzenia pracownikóworaz tworzenie zachęt dla pozostania w macierzystejorganizacji. Również tworzenie określonej kulturyorganizacyjnej, wpierającej ciągły rozwój i uczenie się,ma w skutkach prowadzić do ograniczenia tego typuniekorzystnych zjawisk.Innym zagrożeniem jest skłonność do rywalizacyjnegopodejścia w stosunku do osób szczególnie utalentowanychi wyróżniających się osiągnięciami. Okazujesię, że pracownikowi, który został „wyłowiony” z innejfirmy często bardzo trudno jest zaadaptować sięw nowym środowisku. Ma na to wpływ, oprócz innychczynników, również wrogie nastawienie współpracowników,charakteryzujące się np. nieprzekazywanieminformacji oraz odmawianiem współpracy, zrodzonez zazdrości o lepsze warunki pracy oraz wizerunek„cudotwórcy” 19 . W polskiej kulturze organizacyjnejwzmacniającą rolę odgrywają dodatkowo elementypodobieństwa do kultury folwarcznej (kierownik– ekonom, wódz i pracownicy – posłuszni, bez odpowiedzialności),na które zwraca uwagę J.T. Hryniewicz 20– według jego badań Polacy cenią sobie w pracy spokój,ciepłe emocjonalnie (wręcz koleżeńsko-rodzinne)stosunki z pracownikami, a także kierowników, którzynie wymagają ujawniania własnej opinii. Osiągnięcia indywidualne,wybijanie się ponad innych czy innowacjesą w takich środowiskach traktowane jako zagrożeniedla zastanej hierarchii i układów, a w rezultacie ostrokrytykowane.PodsumowanieW dobie gospodarki opartej na wiedzy, dostępudo ogromnych zasobów informacji, globalizacji orazrosnącej konkurencyjności, przedsiębiorstwa skłaniająsię do wprowadzania systemów ciągłego podnoszeniakompetencji swoich pracowników. Koncepcje zarządzaniawiedzą, organizacji uczącej się, jak równieżzarządzania talentami, nie są już traktowane jakonowoczesne trendy stosowane jedynie przez międzynarodowekorporacje, lecz konieczność każdegoprzedsiębiorstwa, które chce przetrwać i rozwijać sięna wymagającym rynku.Wprowadzenie zarządzania talentami umacniaw przedsiębiorstwie rozwój procesów kształceniaformalnego w postaci studiów podyplomowych,MBA czy cyklów szkoleń dla najlepszych, a takżeuczenia się nieformalnego, konsultacji, przekazywaniawiedzy, wyjazdów studyjnych i pracyw grupach. Powoduje to wzmocnienie kadry i podniesieniepoziomu kompetencji, a także prestiżuorganizacji. Jednym z ważniejszych aspektów, wynikającymz efektywnego wprowadzenia ZT, jest równieżpodejmowanie działań zmierzających w kierunkuzmiany mentalności i kultury organizacyjnej – nataką, w której podnoszenie swoich kompetencji jestprocesem ciągłym, gdzie kreuje się ścieżki kariery dlanajwybitniejszych i gdzie pracownicy nie mają oporówprzed dzieleniem się wiedzą, a więc w kierunkuorganizacji uczącej się.BibliografiaACCA Global Survey Report 2006, Talent managementin the finance profession, http://www.accaglobal.com/pubs/employers/approved/services/employers/develop/professional_insight/talent_management.pdf [17.03.2008].S. Borkowska (red.), Zarządzanie talentami, IPiSS,Warszawa, 2005.B. Groysberg, A. Nanda, N. Nohria, Duże ryzyko zatrudnianiagwiazd, „Harvard Business Review Polska”2008, nr 1 (59).H. Guryn, Wyłanianie talentów, „Personel i Zarządzanie”2007, nr 6.J.T. Hryniewicz, Stosunki pracy w polskich organizacjach,Scholar, 2007.M. Jankowicz, Talenty potrzebne od zaraz, „Personeli Zarządzanie” 2005, nr 5.J.J. Matthews, D. Megginson, M. Surtees, Rozwójzasobów ludzkich, Helion, Gliwice 2008.E. Michaels, H. Handfield-Jones, B. Axelrod, The Warfor Talent, Harvard Business School Press, 2001.B. Mikuła, Elementy nowoczesnego zarządzania. W kierunkuorganizacji inteligentnych, Antykwa, Kraków 2001.B. Mikuła, Organizacje oparte na wiedzy, WydawnictwoAkademii Ekonomicznej w Krakowie, Kraków 2006.Materiały z 14-tego seminarium CEIES Measuringlifelong learning, Włochy, 25–26 czerwca 2001 r., Luksemburg:Office for Official Publications of the EuropeanCommunities, 2002, http://epp.eurostat.ec.europa.eu/cache/ITY_PUBLIC/KS-PB-02-002/EN/KS-PB-02-002-EN.PDF [12.02.2008].Raport badawczy the Conference Board, Zarządzanietalentami: Wyzwania, trendy, przykłady rozwiązań, http://www.conference-board.org/pdf_free/report_zarzadzanieTalentami.pdf[15.02.2008].W.J. Rothwell, H.C. Kazanas, The Strategic Developmentof Talent, HRD Press, 2003.Autorka jest pracownikiem Centrum Rozwoju Edukacji Niestacjonarnej SGH oraz doktorantką Kolegium Zarządzaniai Finansów SGH. Zajmuje się m.in. organizacją procesów szkoleniowych dla przedsiębiorstw. Zainteresowanianaukowe autorki koncentrują się wokół obszaru zarządzania zasobami ludzkimi, w tym w szczególności nazarządzaniu talentami, doskonaleniu zawodowym, a także problematyce komunikacji i relacji w zespołach.19B. Groysberg, A. Nanda, N. Nohria, Duże ryzyko zatrudniania gwiazd, „Harvard Business Review Polska” 2008, nr 1 (59).20J.T. Hryniewicz, Stosunki pracy w polskich organizacjach, Scholar, 2007.58 e-<strong>mentor</strong> nr 2 (24)


Open Innovation– nowe podejściew procesach innowacjiBeata MierzejewskaStale rosnąca złożoność otoczenia, w którym funkcjonująprzedsiębiorstwa, nie pozwala na odłożenie myśleniao innowacjach „na spokojniejszy” moment. Nasilającesię procesy hiperkonkurencji, postępująca konwergencjabranż, rozwój technologii Web 2.0 (a nawet już Web 3.0)oraz innych, umożliwiających budowanie coraz bardziejinteraktywnych relacji w czasie rzeczywistym międzyuczestnikami rynku oraz globalizacja działań, klientówczy produktów powodują, że firmy muszą już dziś zastanawiaćsię, jak jutro osiągnąć przewagę konkurencyjną.Kluczowym warunkiem powodzenia w budowaniu przyszłościfirm staje się angażowanie jak największej liczbyinteresariuszy do ciągłej innowacji – tworzenia nowychproduktów, usprawniania procesów, opracowywanianowych modeli biznesu.Niestety, tradycyjne podejście do tworzenia innowacjicoraz częściej przynosi rozczarowanie – jegoefekty nie odpowiadają potrzebom i oczekiwaniomodbiorców, a zarazem angażują nieefektywnie corazwiększe środki. Tradycyjne podejście do innowacji,wymagające od firmy precyzyjnych, długotrwałychbadań, budowania zespołów, w których każdy członekma ściśle określony zakres zadań i odpowiedzialności,powoływania komitetów sterujących, obradującychraz na kwartał, przestaje się sprawdzać. Co więcej, jakpokazały badania prowadzone przez firmę doradcząBooz Allen Hamilton, w przedsiębiorstwach z różnychbranż nie ma koleracji pomiędzy wydatkami na B+Ra innowacjami zakończonymi sukcesem 1 . Tradycyjnepodejście konsumuje bowiem zbyt wiele czasui środków, dostarczając nazbyt opieszale wyników.Nie można uznać za nowość produktu opartego nabadaniach potrzeb zrobionych przed trzema laty. Czyjego założenia nadal pozostają aktualne? Czy wartościdla klienta, szczegółowo opisane w dokumentacjiinicjującej projekt przed dwoma laty, nadal pozostająw mocy i mogą stanowić o przewadze rynkowej produktu?W odpowiedzi firmy coraz chętniej poszukująi wykorzystują nowe modele tworzenia wartości dlaodbiorców, angażując ich coraz bardziej w wewnętrzneprocesy. Najnowsze badania Booz Allen Hamiltonwskazują na konieczność „słuchania klienta na każdymkroku” 2 – jako jeden z dwóch najistotniejszych czynnikówsukcesu innowacji.Celem niniejszego opracowania jest opisanie nowegomodelu współpracy wykorzystywanego w procesachinnowacyjnych, określenie jego najważniejszychzmiennych – nieuwzględnianych w tradycyjnym podejściu– oraz przedstawienie wybranych przykładówprzedsięwzięć wykorzystujących „otwarte” podejściew tworzeniu innowacji.„Zamknięte” a „otwarte” innowacje– model tradycyjny i nowoczesne podejścieLiniowy proces innowacjiPierwsze modele liniowego procesu innowacjipowstałe w latach 50. (tzw. modele podażowe), zakładały,że nowe produkty biorą swój początek odnowych technologii i wynalazków. Z chwilą nasyceniarynku i zwiększenia konkurencji powstały popytowemodele innowacji, w których siłę napędową stanowiłyzmieniające się preferencje i potrzeby klientów. Wewspółczesnych modelach impulsy rozpoczynająceproces mogą mieć zarówno charakter popytowy, jaki podażowy.Do początku lat 70. rynek producenta zdecydowaniedominował w gospodarce. W większości przypadkówprzedsiębiorstwa nie miały większego problemuze sprzedażą nowych produktów i stosunkowo łatwoosiągały pozycję wiodącą lub nawet lidera na rynkach(stosownie do swojej wielkości). W połowie lat 70.sytuacja zaczęła się dość szybko zmieniać. O sukcesierynkowym zaczął decydować klient. Produktymusiały w coraz większym stopniu odpowiadaćpotrzebom odbiorców. Nie pozostało to bez wpływuna sposób wdrażania innowacji. W okresie dominacjirynku producenta wiodącym sposobem (modelem)1Za: D. Peppers, M. Rogers, The Customer Is Always Right, „The Marketer” 2006, nr 28/10.2Por. B. Jaruzelski, K. Dehoff, The Customer Connection: The Global Innovation 1000, „strategy + business” 2007,nr 10/12.kwiecień 2008 59


zarządzanie wiedząRysunek 1. Liniowy modelprocesu innowacjiTAKTAKTAKTAK12345NIENIENIENIEŹródło: na podstawie G.L.Urban, J.R. Hauser, „Designand Marketing of New Products”,Prentice Hall, Englewood,1993realizacji innowacji byłytzw. „innowacje pchane”.Oznaczało to, żeźródłem innowacji byłyprace badawczo-rozwojowew instytutachnaukowych i przemyśle.Model „innowacji pchanej”musiał być jednakmodyfikowany w momencie,gdy potrzebyklientów zaczęły decydowaćo sukcesie rynkowymproduktu – corazczęściej innowacja pojawiałasię pod wpływemzapotrzebowaniarynku.Jednym ze znanychliniowych modeli procesuinnowacyjnego jestmodel Urbana–Hausera.Składa się on z pięciuetapów:! identyfikacja możliwościi szans rynkowych,! projektowanie pomysłów,! testowanie produktów,! wprowadzenie produktu na rynek,! zarządzanie produktem.Według Modelu Urbana–Hausera przejście do następnegoetapu procesu jest uzależnione od sukcesuw realizacji poprzedniego. W przypadku niepowodzenianie podchodzi siędo kolejnej części. Proceskończy się rozpowszechnieniemproduktu na rynku.Dopiero wtedy można ocenićekonomiczną efektywnośćwprowadzenia innowacji.Rysunek 2. Nieliniowy model procesu innowacjiNowy pomysłnowych potrzeb rynkowych i ich konfrontowaniaz nowymi możliwościami techniczno-produkcyjnymiprzedsiębiorstwa.Nieliniowy model, zaprezentowany na rysunku 2.,został zaproponowany przez R. Rothwella i W. Zegvelta.Zgodnie z nim, innowacja jest traktowanajako logicznie sekwencyjny, chociaż niekoniecznieciągły proces, który można podzielić na łańcuchfunkcjonalnie odrębnych, lecz sprzężonych i współzależnychfaz. W modelu tym nie jest istotne, czypomysł na innowację jest zdominowany czynnikamipodażowymi czy popytowymi, lecz czy wzajemnie sięone przenikają, tak by innowacja stawała się korzystnadla potencjalnego odbiorcy. Szerzej mówiąc, oznaczato poszukiwanie i wykorzystywanie wszelkich możliwościtechniczno-technologicznych do zaspokajaniaciągle nowych potrzeb rynku 3 .Cechy tradycyjnego podejściaPodsumowując, można wskazać na kilka najistotniejszychcech charakteryzujących tradycyjny model„zamkniętych” innowacji:! oparty na wewnętrznych działach badawczo--rozwojowych,! wymagający dużych nakładów na badaniai rozwój, przez co dostępny i wdrażany jedynieprzez duże, silne finansowo organizacje,! silnie skoncentrowany na ochronie własnościintelektualnej oraz tajemnicy handlowej przedsiębiorstw.Podejście to wydaje się być zdominowane przezprzekonanie, że innowacje wymagają kontroli. Przedsiębiorstwamuszą generować nowe pomysły, oceniaćje, rozwijać, wprowadzać na rynek, dystrybuować,finansować. I – co najważniejsze – muszą to robićPotrzeby społeczneNieliniowy model innowacjiPocząwszy od lat 80. modeleliniowe zaczęły byćwypierane przez modelenieliniowe. Ideą tworzeniamodeli nieliniowych jest jednocześniepowiązanie czynnikówpodażowych z popytowymii uwikłanie tychczynników w taki sposób,że ostatecznie przynosząone korzyść potencjalnemuodbiorcy innowacji. W praktyceidea ta sprowadza się doumiejętnego dostrzeganiaNowy pomysłNowy pomysłPracerozwojoweWdrożenie Marketing RynekStan technologii i wiedzyŹródło: na podstawie R. Rothwell, W. Zegvelt, „Innovation and the small and medium sizedfirm”, Francis Pinter, Londyn 19823I. Rutkowski, Rozwój nowego produktu. Metody i uwarunkowania, PWE, Warszawa 2007.60 e-<strong>mentor</strong> nr 2 (24)


Open Innovation – nowe podejście w procesach innowacjisamodzielnie, wewnątrz organizacji, wykorzystującjej własne zasoby.Henry W. Chesbrough 4 opisuje tę zorientowanąwewnętrznie logikę „zamkniętych innowacji” przypomocy kilku specyficznych dla niej zasad:! powinniśmy zatrudnić najlepszych, błyskotliwychpracowników, tak by najbardziej inteligentniludzie w branży pracowali u nas;! chcąc wprowadzić na rynek nowe produkty lubusługi, powinniśmy sami je wymyślać i rozwijać;! jeśli sami je wymyślimy, osiągniemy efekt pierwszeństwana rynku;! firma, która pierwsza wprowadza na rynekprodukt, zazwyczaj wygrywa;! jeśli będziemy liderami w naszej branży podwzględem nakładów inwestycyjnych na B+R,będziemy autorami największej liczby, najlepszychpomysłów, co w konsekwencji doprowadzido osiągnięcia pozycji lidera rynkowego;! powinniśmy mieć kontrolę nad naszą własnościąintelektualną, tak by nasi konkurenci nieczerpali zysków z naszych pomysłów.Nowoczesny kierunek w innowacjachCo w takim razie sprawia, że model ten nie sprawdzasię w organizacjach? W XXI wieku organizacjestawiające sobie za cel innowacyjność natrafiają nakilka paradoksalnych z pozoru kwestii, które każąim zmienić podejście do innowacji. Podczas, gdyw otoczeniu pojawia się mnóstwo nowych pomysłów(a to za sprawą omawianych wcześniej zmianspołeczno-gospodarczych, takich jak networking,powszechny dostęp do informacji itp.), wewnętrznierealizowane badania stają się coraz mniej efektywnew kontekście innowacji, zaś zwykłe, stosowane dotychczasprocesy zarządzania innowacjami wydają sięjuż nie działać tak sprawnie jak dotychczas. Kolejnymparadoksem jest finansowanie innowacji – podczasgdy z jednej strony na rynku jest mnóstwo wolnegokapitału, który może być przeznaczony na rozwój nowatorskichprzedsięwzięć, firmy realizujące jedyniewewnętrznymi siłami procesy innowacyjne cierpią naniedobór kapitału, aby rozwijać nowe, pojawiającesię możliwości.Wymaga to zupełnej zmiany myślenia o innowacjach.Jedną z odpowiedzi jest otwarcie się przezorganizacje na otoczenie i interesariuszy poprzez jaknajgłębsze zaangażowanie ich w procesy innowacji.Na rynku zaczynają pojawiać się nowe modele, zbliżonedo współprodukcji opartej o dostępne dobra.Zastosowanie podejścia „otwartego”w procesach innowacyjnychOpen source – charakterystyka podejściai jego korzenieOpen source oznacza w języku angielskim (w dokładnymtłumaczeniu) „otwarte źródło”. W rzeczywistościtermin ten stosowany jest najczęściejdo określenia oprogramowania komputerowegoo powszechnie dostępnym kodzie źródłowym.Aby dobrze zrozumieć istotę oprogramowaniaopen source, warto najpierw przyjrzeć się rozpowszechnionemukomercyjnemu modelowi oprogramowania,określanego wspólnym terminemclosed source. W przypadku oprogramowania typuclosed source, aby móc dokonywać jakichkolwiekjego modyfikacji, niezbędna jest znajomość koduźródłowego 5 umożliwiającego transformację zapisubinarnego w sekwencję komend zrozumiałych dlaczłowieka. W związku z tym programy typu closedsource chronione są przez licencje czy inne prawawłasności przed nieuprawnionym dostępem doich kodu źródłowego, umożliwiając dokonywaniejakichkolwiek zmian w programie jedynie osobomznającym ten kod. Oprogramowanie tworzone w takimstandardzie traktowane jest zatem na równiz innymi dobrami, a model biznesowy, w jakimjest ono tworzone nie różni się od tradycyjnychprzedsiębiorstw.Oprogramowanie open source charakteryzuje zaś:! dostęp do kodu źródłowego,! możliwość swobodnej redystrybucji,! możliwość modyfikacji programu oraz jegorozpowszechniania na prawach oryginalnejlicencji,! możliwość wprowadzenia ograniczenia, na skutekktórego należy zachować oryginalność koduźródłowego, a własne modyfikacje zawrzećw formie dodatkowych modułów dołączanychdo programu bazowego,! brak możliwości ograniczania praw do programujakichkolwiek osób bądź instytucji,! brak możliwości ograniczania praw do sposobuwykorzystania programu,! licencja obowiązująca wszystkich użytkowników,! licencja nieograniczająca się do jednego produktu,4Por. H.W. Chesbrough, Open innovation. The New imperative for creating and profiting from technology, Harvard BusinessSchool Press, Boston 2003, s. 20.5Program komputerowy to – w pewnym uproszczeniu – określona sekwencja instrukcji napisanych przez człowiekaa wykonywanych przez komputer. Komputery jednak mogą realizować jedynie instrukcje zapisane w systemie binarnym.W związku z tym, program komputerowy, napisany najpierw w formie zrozumiałej dla człowieka, stanowiącejkod źródłowy, musi następnie zostać przetłumaczony, inaczej zakodowany (przy użyciu innych programów) w formębinarną, odczytywaną przez komputer.kwiecień 2008 61


zarządzanie wiedzą! licencja niewprowadzająca restrykcji w stosowaniuinnych programów,! licencja, która jest technologicznie neutralna 6 .Wszystkie te cechy sprawiają, że oprogramowanieopen source jest rozwijane i wykorzystywane w innysposób niż programy typu closed source. Wymaga tozatem zastosowania odmiennego podejścia ze stronyzarządzania, a zwłaszcza modyfikacji procesówinnowacyjnych.Ważnym punktem nie tyle dla samego rozwojuruchu OS, co raczej dla jego popularyzacji była publikacjaE. Raymonda The cathedral and the bazar 7 , pokazującaróżnice pomiędzy dwoma konkurencyjnymimodelami produkcji (w tym przypadku software’u):modelem closed source – wykorzystywanym przez tradycyjnefirmy (w tym także Microsoft) oraz nowym,rosnącym w popularność modelem open sourcei wskazująca na ewidentne przewagi tego nowegomodelu produkcji.Obecnie coraz szerzej możemy obserwować wykorzystaniepewnych rozwiązań z obszaru open sourcew procesach innowacyjnych. Coraz więcej firm pozwalabowiem na współtworzenie przez klientów nowychrozwiązań, wykorzystując główne narzędzie modeluopen source – społeczności skupiające wokół – najczęściejjasno zdefiniowanego, konkretnego – problemujednostki nim zainteresowane. Współpracują onez pracownikami firmy, kierując się jedynie wewnętrznąmotywacją, chęcią współtworzenia nowych rozwiązań– wszystkie te cechy charakteryzują uczestnikówsystemów open source. Autorzy z dziedziny zarządzaniataki model współpracy w procesie innowacjiokreślają często mianem user-driven innovation. Conajważniejsze, w takim podejściu – użytkownicy stająsię współtwórcami wartości dodanej.Permanentna innowacja jako źródło przewagikonkurencyjnejDo niedawna jeszcze wewnętrzne działy badawczo-rozwojowepostrzegane były jako strategicznyzasób organizacji decydujący o jej przewadze konkurencyjnej,stanowiący główne miejsce kreowaniawartości, a często nawet jako istotna bariera wejściado sektora dla innych graczy. Jedynie duże firmy dysponująceznacznymi zasobami pozwalającymi im naprowadzenie długotrwałych programów badawczychliczyły się w konkurencji o palmę pierwszeństwaw sektorze. Firmy takie, jak DuPont, Merck, IBM,GE, AT&T realizowały znaczną cześć badań w swoichsektorach 8 . Przynosiło im to zarazem największezyski w branży. Rywale próbujący zająć ich miejscena rynku, zmuszeni byli podnosić stawkę, tworzącwłasne laboratoria badawcze.Obecnie przy nie zmienionej istocie przewagi konkurencyjnejtkwiącej w innowacyjności organizacji,zmienia się podejście do ich generowania. Dziękiwiększej otwartości procesów innowacyjnych w organizacjachnowe firmy zaczynają zagrażać dotychczasowympotentatom innowacyjności. Wykorzystująone prace i projekty badawcze rozwijane wcześniej– i porzucone jako mało perspektywiczne – w innychfirmach. Dzięki temu nie muszą inwestować w zbudowaniewielkich własnych laboratoriów badawczychczy prowadzenie prac nad wieloma, potencjalnie obiecującymiprojektami, a raczej opierają się na tym, coodkrył już ktoś inny, aczkolwiek nie potrafił (lub niemiał odpowiednich zasobów) tego skomercjalizować.Na tym właśnie polega istota innowacji.Poniżej przedstawione zostały różne kierunki rozwoju„otwartego modelu innowacji”, uwzględniającezarówno zakres tej otwartości, jak i wymiar modelubiznesowego, którego ona dotyczy.Najdalej idącym jest oczywiście model pełnejotwartości, od początku procesu innowacyjnego(etapu badawczego), poprzez rozwój produktu, aż pojego komercjalizację (szerzej opisywany przez trzeciąopcję przedstawioną poniżej). „Otwartość” ta możebyć jednak realizowana tylko na określonych etapachprocesu, np. w wymiarze powstawania i dopracowywaniaidei. I o tym wymiarze traktują dwie pierwszeopcje – otwartość w projektowaniu produktów orazotwartość strategii innowacji.„Otwartość” w projektowaniu produktów lub usługNajprostszym przykładem otwierania się firm napotrzeby odbiorców w procesie innowacji są znanei praktykowane od wielu lat badania marketingowe,dzięki którym firmy uzyskują często wiedzę na tematpotrzeb, preferencji, pomysłów swoich potencjalnychklientów. Jednakże, z pewnością, gdyby badaniamarketingowe przynosiły firmom w pełni satysfakcjonującewyniki, żadna z nich nie poszukiwałaby innychi sposobów poznania klientów oraz projektowaniavalue proposition.W ostatnich latach coraz więcej firm, reprezentującychróżne sektory gospodarki, włącza użytkownikówkońcowych swoich produktów we współtworzeniewartości dodanej. Spektrum branż wykorzystującychten model współpracy sięga od producentów oprogramowania,poprzez przemysł fonograficzny, filmowy,medyczny, samochodowy aż po produkty FMCG 9 .Podstawowym założeniem tego nowego modelu jestto, iż wartość dodana dla klienta jest współtworzonaprzez niego wraz z firmą. Klient staje się zarazemwspółproducentem końcowego produktu. Co ważne,współtworzenie wartości nie sprowadza się tylko do6The Open Source Definition, Open Source Initiative (OSI), http://www.opensource.org/docs/definition.php, za:M. Dąbrowski, Wybór rozwiązań technologicznych w e-edukacji, „e-<strong>mentor</strong>” 2004, nr 5 (7), s. 44.7E. Raymond, The cathedral and the bazar, „Knowledge, Technology and Policy” 1999, t. 12, nr 3, s. 23–49.8H. Chesbrough, Open innovation. The New imperative for creating and profiting from technology, Harvard Business SchoolPress, Boston 2003, s. 19.9Fast Moving Consumer Goods (produkty szybko rotujące, zbywalne).62 e-<strong>mentor</strong> nr 2 (24)


Open Innovation – nowe podejście w procesach innowacjikastomizacji produktu na końcowym etapie procesujego dostarczania klientowi (np. wybór koloru i dobórwyposażenia dodatkowego w samochodzie), ale rozpoczynasię już na etapie projektowania produktów. Całyzaś proces tworzenia wartości skoncentrowany jestwokół klientów i ich indywidualnych doświadczeń.Dla efektywnego funkcjonowania tego podejścia– obok kulturowej gotowości organizacji na włączenieklientów w wewnętrzne procesy – niezbędna jestoczywiście odpowiednia infrastruktura przygotowanaprzez firmę, umożliwiająca użytkownikom interakcjezarówno z firmą, jak i między sobą.Coimbatore K. Prahalad i Venkot Ramaswamy 10wyróżniają cztery najważniejsze elementy warunkującewspółtworzenie przez klientów nowychproduktów:! dialog,! dostęp,! ocena ryzyka,! transparentność.Dialog w rozumieniu C.K Prahalada i V. Ramaswamy’egoto nie tylko wymiana czy dzielenie się wiedząmiędzy firmą a klientami, ale – być może nawetważniejsza – zupełnie nowa jakość w kontaktachi wzajemnym zrozumieniu między klientami a firmami.Dialog ten pozwala użytkownikom włączać swojewidzenie wartości dla klienta w proces tworzeniawartości danej firmy.Kolejnym wyzwaniem dla firm może być zaoferowanieklientowi dostępu do produktów, już nietylko na ostatnim etapie procesu – poprzez sprzedażi przeniesienie praw własności, ale na etapie projektowaniai przygotowywania produktów – kliencipowinni mieć możliwość „doświadczenia wartości”.O ile firma umożliwi klientowi interakcję na kolejnychetapach projektowania produktów, może wykorzystaćjego doświadczenia do wykreowania sobie nowychmożliwości rynkowych (np. kreując dodatkowy, nieplanowanywcześniej segment rynku).Niewątpliwie z przedstawionymi korzyściami dlafirmy (płynących z dialogu czy dodatkowych etapówoceny projektów) wiążą się także pewne zagrożenia,związane zwłaszcza z większą świadomością klientów.Kiedy klienci stają się współtwórcami produktów, ichpotrzeby informacyjne wzrastają. Nie są oni już zatemnieświadomą ograniczeń funkcjonalnych (i innych) masą,którą bardzo łatwo manipulować, wykorzystując np.określone narzędzia marketingowe. A zatem transparentnośćinformacji jest w takich przypadkach niezbędnadla zbudowania zaufania między klientami a firmami.Przykład: film Snakes On a PlaneNa ekrany polskich kin w październiku 2006 rokuwszedł film – Snakes on a plane, określany już wówczasprzez wielu recenzentów, dziennikarzy czy zagranicznychfanów jako prawdopodobnie jeden z najbardziejinternetowych filmów wszechczasów.Zanim padł pierwszy klaps na planie, w prasie i nastronach internetowych pojawiło się wiele informacjio filmie. Ta wstępna popularność i rozgłos możliwebyły głównie dzięki blogowi współscenarzysty, JoshaFriedmana, któremu dano szansę pracować nad scenariuszemfilmu. Sugestie fanów i liczne komentarzedo kolejnych wątków sprawiły, że wytwórnia New LineCinema (producent filmu) postanowiła nie tylko zmienićtytuł filmu (początkowo był to Pacific Air Flight 121),ale także zorganizowała dodatkowe dni zdjęciowe, bynakręcić nowe sceny w filmie, co w normalnych warunkachzdarza się rzadko, a na pewno – jeśli w ogólema to miejsce – stanowi ogromny problem. Producencidodając nowe sceny i zmieniając nieco pierwotnykształt wątków, odpowiedzieli na oczekiwania fanów.Co więcej, już w trakcie pracy nad filmem zaproszonodoń nowego aktora – Samuela L. Jacksona – któryo filmie dowiedział się już wcześniej z mediów i bezprzeglądania scenariusza podpisał z wytwórnią umowę.Nie bez znaczenia pozostał też wpływ kinomanówna obsadę scenarzystów – już po nakręceniu częściscen, New Line Cinema zatrudniła dwóch nowychscenarzystów, by dopisali dodatkowe sceny i nieco„wygładzili” scenariusz.„Otwartość” strategii innowacji„Otwarte innowacje” jako strategia to podejścieszersze niż opisywane powyżej, podejście w którymnajważniejsze jest przekonanie, że firmy mogą i powinnywykorzystywać zarówno zewnętrzne, jak i wewnętrznepomysły w swych procesach innowacyjnych.O ile chcą rozwijać swój model biznesowy, powinnyrównie otwarcie podchodzić do wewnętrznie kierowanych,jak i zewnętrznych ścieżek wprowadzaniainnowacji na rynek.Model biznesowy „otwartych innowacji’ wykorzystujezarówno zewnętrzne jak i wewnętrzne źródłapomysłów bez obawy, że wyprowadzenie poza muryfirmy pomysłów powstałych wewnątrz pozbawi jąmożliwości czerpania korzyści z tych idei. Przeciwnie,wobec braku możliwości rozwijania wszystkichnadarzających się idei wewnętrznymi siłami, firmystosujące otwarte podejście w procesach innowacjichętnie dzielą się tą wiedzą z otoczeniem, co prowadzido powstawania większej liczby innowacyjnychproduktów niż byłoby to możliwe w warunkach „zamkniętych”procesów.Co zatem odróżnia podejście „zamknięte” od„otwartego” w strategii innowacji? Przede wszystkimszczelność granic organizacji w przepływie wiedzywydaje się tu krytycznym czynnikiem. W obliczuprzekonania, że przewaga konkurencyjna organizacjimoże być kształtowana właśnie za murami działówbadawczo-rozwojowych firmy, procesy innowacyjnerealizowane są jedynie wewnątrz organizacji. Powszechnieznane „lejkowe” podejście w tym procesieuwzględnia:10C.K. Prahalad, V. Ramaswamy, The future of competition. Co-creating unique value with customers, Harvard BusinessSchool Press, Boston 2004.kwiecień 2008 63


zarządzanie wiedzą! fazę kreowania pomysłów,! fazę oceny pomysłów,! fazę rozwoju pomysłów,! fazę powtórnej oceny i wyboru pomysłów dowdrożenia,! fazę wdrażania ich w postaci produktów narynek.Wszystkie te fazy realizowane są wewnątrz firmy,przez co naturalne jest odrzucenie części pomysłówna poszczególnych etapach oceny.Dzięki temu firmy są w staniespriorytetyzować swoje inwestycjei efektywnie (w ich przekonaniu)alokować dostępne środki. Niestety,w tym wariancie wiele pomysłówjest odrzuconych i nigdy nie będziemiało szansy ujrzenia światła dziennego.Co ważne, są one najczęściejeliminowane nie przez rynek i jegowymagania, ale drogą autorytatywnychocen wewnętrznych ekspertówczy komitetów sterujących.W warunkach „otwartości” strategiiinnowacji naczelną zasadą,jaką kierują się decydenci jestmaksymalizacja wartości płynącejz różnych pomysłów pojawiającychsię zarówno w firmie, jak i pozanią. Oznacza to, że formalne ramyorganizacji są tylko umowną granicąw przepływie wiedzy międzyorganizacją a jej otoczeniem. Firmystosujące strategię „otwartych innowacji”równie chętnie rozwijająwewnętrzne pomysły, których nie sąautorami, jak i udostępniają swojepomysły innym organizacjom, jeślisame uznają, że nie będą się nimizajmować. Często także celowowyprowadzają pomysły poza ramyorganizacji, by, na przykład w postacistart-upów, mogły one być rozwijanebez wpływu wewnętrznych siłpolitycznych w organizacji. Różnicemiędzy „modelem zamkniętym”a „otwartym” w innowacjach łatwodostrzec, analizując rysunki 3. i 4.Podejście „otwarte” pozwalarozwiązać z pewnością dwa ważneproblemy:! priorytetyzację wewnętrznądla projektów, wynikającąz ograniczoności zasobóworganizacji,Rysunek 3. Model zamkniętego podejścia w procesie innowacjiProjekty badawczeBadaniaRozwójGranice firmyLegendaPomysłRYNEKŹródło: opracowanie własne na podstawie H. Chesbrough, „Open innovation. TheNew imperative for creating and profiting from technology”, Harvard BusinessSchool Press, Boston, 2003Projekty badawczeBadania! dostępność kapitału służącego finansowaniurozwoju nowych produktów.Z jednej strony dzięki wyprowadzeniu poza organizacjępewnych projektów, niekoniecznie strategicznychz punktu widzenia danej firmy, mają one szansebyć rozwijane i przerodzić się w konkretne produktyrynkowe. Ponadto, jako odrębne organizacje mająwiększą łatwość zdobycia środków finansowych narozwój 11 , w postaci np. venture capital. Co więcej, jakoRysunek 4. Model otwartego podejścia w procesie innowacjiRozwójGranice firmyLegendaPomysłNOWYRYNEKOBECNYRYNEKŹródło: opracowanie własne na podstawie H. Chesbrough, „Open innovation. TheNew imperative for creating and profiting from technology”, Harvard BusinessSchool Press, Boston, 200311Autorka jest świadoma, iż w normalnych warunkach finansowanie przedsięwzięć nowych, dopiero powstającychobarczone jest większym ryzykiem, a co za tym idzie, tradycyjne finansowanie zewnętrzne (np. kredyty bankowe,pożyczki, giełda itp.) jest dla takich firm trudno dostępne, niemniej przedstawiana sytuacja dotyczy specyficznychorganizacji – firm podejmujących się rozwoju nowych, często przełomowych produktów lub technologii, obarczonychdużym ryzykiem, ale zarazem o obiecujących perspektywach.64 e-<strong>mentor</strong> nr 2 (24)


Open Innovation – nowe podejście w procesach innowacjimłode, niewielkie często firmy odznaczają się dużowiększą elastycznością i wrażliwością na potrzebyrynkowe.Z drugiej strony tego typu podejście pozwala takżeorganizacjom pozyskiwać nowe idee spoza firmy, bezkonieczności angażowania zasobów i poświęcaniaczasu na rozwój ich od podstaw.Bez wątpienia każdej ze stron takie podejście pozwalaskrócić cykl time-to-market, co w obliczu rewolucjitechnologicznej, hiperkonkurencji i skracającychsię cykli życia produktów wydaje się być kluczowymwyzwaniem dla przedsiębiorstw.Przykład: Procter&GambleW 1999 roku firma Procter&Gamble, jako jeden z pionierówotwartości w procesie innowacji, postanowiłazmienić swoją strategię w tym zakresie. Po wielu latachścisłej ochrony i poufności poczynań swych działówbadawczo-rozwojowych firma zdecydowała rozszerzyćzakres ich obowiązków także na świat zewnętrzny,znajdujący się poza jej murami, powołując do życiainicjatywę „Connect and Develop” 12 . Była ona wyrazempotrzeby wykorzystywania zewnętrznych źródełpomysłów w P&G. Firma utworzyła w tym celu takżestanowisko dyrektora ds. innowacji zewnętrznych, przedktórym postawiła cel doprowadzenia w ciągu 5 lat doosiągnięcia 50-proc. udziału (z 10-proc. w 2000 roku)innowacji pochodzących spoza organizacji w ogólnymportfelu nowych produktów.P&G wyszła z założenia, że skoro w firmie pracujeokoło 8600 naukowców posiadających najnowsząwiedzę specjalistyczną w swych dziedzinach i są oniw stanie stworzyć dziesiątki nowych produktów, todlaczego firma nie miałaby wykorzystać potencjałuponad 1,5 mln innych naukowców pracujących pozanią? I dlaczego w takim razie firma miałaby wymyślaćwszystko tylko wewnętrznymi siłami?Obecnie pomysły generowane w laboratoriachP&G, a nie wdrożone przez firmę stają się jawnew ciągu trzech lat i dostępne dla wszystkich zainteresowanychprzedsiębiorstw, a nawet bezpośrednichkonkurentów.Przykład: Xerox – Palo Alto Research Center (PARC)Palo Alto Research Center (PARC) 13 to centrumbadawczo-rozwojowe firmy Xerox. Utworzono jew 1970 roku na fali sukcesów firmy na rynku kopiarekbiurowych, by stworzyć dla niej podstawy doprzetrwania i rozwoju w długim okresie – dostarczyćfirmie technologie informatyczne, które zgodniez wizją kierownictwa pozwoliłyby jej przekształcićsię z wiodącego producenta kopiarek w wiodącegodostawcę biurowych produktów intensywnych informacyjnie.Prace prowadzone w PARC poskutkowały wielomaprzełomowymi odkryciami w obszarze teleinformatykii pokrewnych dziedzinach, m.in. wynaleziono tammysz komputerową i oparty na jej wykorzystaniugraficzny interfejs użytkownika oraz opracowanopodstawowe technologie umożliwiające wymianędanych w sieciach komputerowych.Pomimo tego uzyskanie zwrotu z inwestycji w innowacjebyło dla firmy problematyczne. Xerox wprawdziewykorzystał w swoich produktach np. rezultatyprac nad drukiem laserowym, lecz większość technologiiopracowanych w PARC stała się zaczynem powodzeniainnych firm, np. wspomniany wyżej graficznyinterfejs użytkownika został skomercjalizowany przezfirmę Apple, zaś stworzony w PARC edytor tekstówBravo uległ przekształceniu w Microsoft Word.Zdziwienie może budzić fakt, iż ów wyciek technologiibył w większości przypadków świadomiesterowany przez osoby zarządzające portfelem projektówbadawczych w PARC. Otóż gdy w ich oceniekontynuowanie danego projektu w porównaniu z innymiprojektami byłoby drogie i zarazem wniosłobyniewiele do zasobu wiedzy istotnej z perspektywykluczowych kompetencji firmy, projekt tracił dostępdo finansowania, a prowadzący go badacze otrzymywalimożliwość podjęcia decyzji o odejściu z firmyi kontynuowaniu projektu na własną rękę – za cenęstosownej licencji, w ramach już istniejącej organizacjilub nowo zakładanego spin-off. Stało się takm.in. z Ethernet, tj. technologią sieci komputerowych– w celu jej komercjalizacji powstała firma 3Com.Łączna wartość rynkowa firm (założonych w opisanychpowyżej okolicznościach przez byłych badaczyz PARC) może być wyższa niż wartość firmy Xerox.Można jednak przypuszczać, że gdyby prace nad wyprowadzonymina zewnątrz technologiami kontynuowanow PARC bez presji konkurencyjnej, nie uległyby onemodyfikacjom, które w rzeczywistości zadecydowałyo ich użyteczności i tym samym doprowadziły do ichsukcesów rynkowych. Za przykład mogą tu posłużyćprotokoły szybkiej wymiany danych w sieciach komputerowych,rozwinięte przez spin-off – firmę SynOptics.W PARC pracowano nad nimi z myślą o obsłudze sieciświatłowodowych, które miały upowszechnić się w relatywnienieodległej perspektywie czasowej. Natomiastw SynOptics dostosowano je do obsługi istniejącychsieci zbudowanych z kabli miedzianych.„Otwarty” model biznesowyW przywoływanym już artykule E. Raymonda odnajdujemycharakterystykę dwu różnych modeli tworzeniaprogramów informatycznych. Autor przeciwstawiametaforę budowy katedry oraz funkcjonowania bazaru.Katedra – dokładnie zaprojektowana, budowana12Na podstawie N. Sakkab, Connect and Develop Complements Research and Develop at P&G, „Research-Technology Management”2002, nr 2, s. 38–45.13Na podstawie H.W. Chesbrough, Graceful exits and foregone opportunities: Xerox’s management of its technology spin-offcompanies, „Business History Review” 2002, nr 4 oraz H.W. Chesbrough, Open innovation. The New imperative for creatingand profiting from technology, Harvard Business School Press, Boston 2003.kwiecień 2008 65


zarządzanie wiedząprzez indywidualnych „czarodziejów”, czy hermetyczne,wąskie grupki „magów” – oddawana jest do użytkudopiero, gdy można ją uznać za w pełni gotową. Niema tu mowy o przebudowie czy rekonfiguracji. Cowięcej, to rzeczony naczelny „mag”, nie użytkownicy,arbitralnie uznaje, kiedy ten moment następuje orazjak ma wyglądać – w założeniu przeznaczona właśniedla nich do użytku – budowla. Również on decydujeo wyglądzie, wystroju katedry.Zupełnie inaczej funkcjonuje bazar – przypominaraczej otwarty system, trudno odnaleźć w nim odgórnemechanizmy arbitralnie zarządzające poszczególnymielementami, jego wygląd, funkcjonalności, możliwościstale są udoskonalane, a zarazem nieustanniesię zmieniają. Co istotne – w tym przypadku kliencibazaru wchodząc nań, sami zaczynają go tworzyć, zaśwybierając określone stoiska, wskazują na najlepszeelementy systemu.Szczególnie istotnym w rozwoju jakiegokolwiekprojektu open source jest dostarczenie wartości użytkownikomdanego produktu. Tu produkt – jego ramy,value proposition, a przede wszystkim rozwój – kreowanyjest niejako przez popyt. Nierzadko też zdarza się– podobnie jak w wyżej opisywanych podejściach – żetwórcy produktu są jednocześnie jego odbiorcami.Rodzi to zatem naturalną, wewnętrzną potrzebę dokreowania takich rozwiązań, które będą w najwyższymstopniu realizowały ich potrzeby, dynamicznie się donich dostosowując. Wynikiem tego jest stałe usprawnianienarzędzi, podnoszenie ich jakości, rozwijanienowych funkcjonalności, stałe eliminowanie pojawiającychsię błędów, tak by, poprzez coraz większe i szerszewykorzystanie produktu, w jak najwyższym stopniumaksymalizować jego wartość dla użytkowników.Stanowi to bowiem jeden z głównych elementów motywującychtwórców do dalszego rozwijania produktu.Musi zaistnieć pewna „masa krytyczna” potencjalnychużytkowników, aby był sens robienia czegoś w modeluopen source – jeśli grupa potencjalnych użytkownikówbędzie nieliczna, wówczas trudno wyobrazić sobie,aby zebrało się wystarczająco dużo twórców, którzybyliby zainteresowani wspólnym stworzeniem systemu– nawet realizującego jedynie ich potrzeby. Maksymalizacjawartości oznacza tu pozyskanie jak największejliczby użytkowników mających swój wkład w rozwójproduktu.Zmiany w projekcie opartym na modelu opensource zachodzą nieustannie wraz z pojawianiemsię nowych potrzeb, nowych problemów czy identyfikowaniemnowych błędów w systemie. Jest on dużobardziej dynamicznym i całościowym podejściem niżdwa opisywane powyżej. Stąd, ze względu na potrzebyskoordynowania działań, jak również wspomnianejwcześniej efektywnej alokacji i połączenia niezbędnychkompetencji i informacji, małe, dynamiczne, będącew stanie samodzielnie się zorganizować społeczności,skupione wokół konkretnego zagadnienia czyproblemu będą działały bardziej efektywnie. Skupiająone zatem użytkowników i właścicieli produktu 14 .Przykład: LinuxPod koniec 1991 roku rozpoczęła się swoistarewolucja w sektorze IT, kiedy to Linus Torvalds,student Uniwersytetu w Helsinkach, zaprezentowałpierwszą oficjalną wersję Linuksa 15 . Wersja oznaczonabyła numerem 0.02 i posiadała już możliwośćuruchomienia bash’a (Bourne Again Shell) oraz GCC(GNU Compiler Collection). Niestety, poza tym prawienic nie działało.Od samego początku głównym motywatoremdziałania L. Torvaldsa była ciekawość intelektualna,bardziej nawet niż praktyczna potrzeba. Ten 21--letni student starał się zbudować jądro – kluczowyelement – prawdziwego, w pełni otwartego systemuoperacyjnego 16 .Linus Torvalds oparł swój system o Minix – dostępnąpublicznie wersję systemu Unix, przeznaczoną dlakomputerów osobistych. Po około sześciu miesiącachprac deweloperskich przyjaciel L. Torvaldsa pozwoliłmu umieścić informację o tym systemie operacyjnymna jednym z uniwersyteckich serwerów. Od tegoczasu zaczął on zachęcać innych programistów dowspólnego rozwijania systemu, podkreślając, że otopojawia się system operacyjny, który każdy z nichmoże dostosowywać do własnych potrzeb.Początkowo L. Torvalds dystrybuował Linuksa napodstawie licencji zabraniającej pobierania jakichkolwiekopłat za ten system, wymagającej jednocześnie,by wszelkie inne programy wykorzystujące lub oparteo Linuksa również były powszechnie dostępne. Pookoło pół roku złagodził te restrykcje. Jednocześnieliczba użytkowników systemu drastycznie wzrosła14Jako właścicieli należy tu rozumieć twórców, jednostki kontrybujące lub aktywnie przyczyniające się do rozwojuproduktu.15Rozwój systemu Linux datuje się od momentu wysłania przez Linusa Torvaldsa wiadomości następującej treści:Witam wszystkich, którzy używają Minix. Przygotowuję właśnie wolny (dostępny dla wszystkich) system operacyjny (traktuje tojako hobby, nie zaś profesjonalne zajęcie jak GNU) dla procesorów 386 AT. To „wisi w powietrzu” już od kwietnia i wydaje się byćgotowym (nabierać konkretnych kształtów). Chciałbym otrzymać informację zwrotną dającą pogląd na to, co ludziom podoba się,a co nie w Minixie, gdyż mój system operacyjny w pewnym sensie go przypomina (np. pod względem układu systemu plików).Obecnie umożliwia on uruchomienie bash’ a (1.08) oraz GCC (1.40) i wydaje się to działać. Oznacza to, że w ciągu kilku miesięcypowinienem mieć już coś praktycznego, chciałbym więc wiedzieć, jakie cechy tego systemu byłyby Wam (jako użytkownikom tegosystemu) najbardziej potrzebne. Wszelkie sugestie są mile widziane, aczkolwiek nie mogę obiecać, że wszystkie zrealizuję J.LinusPS. TAK, to oprogramowanie jest wolne i ma wiele nitek (wiele wątków). Nie daje się jednak i prawdopodobnie nigdy nie będzie siędało przenieść go na inne procesory niż 386 AT – jest to bowiem cały sprzęt, jaki posiadam. Źródło: Linus Benedict Torvalds,What would you like to see most in Minix? [wypowiedź z dn. 25.05.1991 na forum dyskusyjnym comp.os.minix].16Czyli systemu z udostępnionym kodem źródłowym, co umożliwia pełną jego modyfikację, kopiowanie, nieograniczonerozpowszechnianie.66 e-<strong>mentor</strong> nr 2 (24)


Open Innovation – nowe podejście w procesach innowacji– od około 100 osób w 1992 do około 500 tysięcyw 1994 roku 17 .W pierwszych latach prace nad systemem prowadzonebyły w dosyć spontaniczny sposób, bez szczególnejorganizacji i strukturyzacji pracy. Studenci orazinni entuzjaści skupieni wokół wspólnej idei pisaliprogram, poświęcając swój wolny czas, by w końcuL. Torvalds łączył niemal wszystkie poprawki i rozwinięciabez niczyjej pomocy.Od samego początku L. Torvalds był lideremtego projektu. Bardzo szybko jego rola zaczęłakoncentrować się bardziej na koordynowaniuprojektu, ocenianiu kolejnych elementów pracyczy rozsądzaniu spornych kwestii niż pisaniu kodukolejnych nitek programu. Najistotniejsze jednakjest, iż jego pozycja w całej społeczności miała sweźródło w charyzmie oraz merytorycznych umiejętnościachL. TorvaldsaJuż od początku istnienia społeczności pracującejnad Linuksem można zauważyć, że najważniejsząjej cechą jest merytokracja. Obecnie, gdy projektrozrósł się do takich rozmiarów, że L. Torvalds samnie jest w stanie podejmować wszystkich decyzji,delegowane one zostały na osoby o największymwkładzie w rozwój systemu, cieszących się najwyższąreputację wśród innych członków społeczności.Niemniej, w trudnych sytuacjach, czy też w przypadkupodejmowania decyzji o wypuszczeniu na rynek,L. Torvalds nadal pozostaje autorytetem.W jaki sposób funkcjonuje obecnie ten fenomen?Ile pozostało z pierwotnych ideałów wolnego dostępudo kodu źródłowego, bezpłatnego oprogramowania,woluntarystycznego zaangażowania grona entuzjastówdążących do stałego ulepszania i rozwijaniasystemu? I w końcu najważniejsze pytanie: czy tenmodel biznesu może przynieść zyski?Choć model grupy entuzjastów poświęcającychswój wolny czas na tworzenie, udoskonalanie i rozwijanienowego produktu nie odszedł zupełniew przeszłość – nadal bowiem setki programistów nacałym świecie pracują nad kolejnymi usprawnieniamisystemu czy udoskonaleniem jądra do wersji 2.8 – tojednak do projektu już przed kilku laty włączyły sięnajwiększe światowe firmy informatyczne. Obecniegłówny trzon społeczności pracującej nad Linuksemstanowi zespół programistów-następców L. Torvaldsa(wraz z nim samym) w większości zatrudnionychprzez firmy technologiczne, takie jak IBM, HP, Intel.Ich zadaniem jest nadzorowanie i koordynowanierozwoju kilku priorytetowych projektów 18 . Firmywłączające się w rozwój Linuksa nie tylko zapewniająwynagrodzenie programistom pracującym nad tymprojektem, ale również dostarczają niezbędne narzędziatechnologiczne, wsparcie marketingowe, a częstodelegują do tych prac także swoich pracowników.W celu zapewnienia odpowiedniej priorytetyzacjiprac istnieje także swoisty zarząd pomagający podejmowaćdecyzje o kierunkach dalszego rozwojuLinuksa.Czy w świetle przedstawionych powyżej faktówLinux Inc. nie przypomina jednak tradycyjnej firmy?Zdecydowanie nie. Linux Inc. nie ma siedziby, nie maCEO, nie publikuje raportów rocznych. Nie jest pojedyncząfirmą. Przypomina bardziej wspólne, kooperatywneprzedsięwzięcie, w ramach którego pracownicykilkunastu firm wraz z tysiącami indywidualnychprogramistów wspólnie pracują nad usprawnieniemi rozwojem systemu 19 .Ponadto społeczność ta – jak podkreślają jejczłonkowie – nie doświadczyła dotychczas znaczącychkonfliktów. Sporne kwestie dotyczą na przykładkolejnych rozwiązań zaistniałych problemów (w systemierozwiązywane są w oparciu o argument jakości,efektywności i niezawodności danego rozwiązania).W sytuacjach zaś, gdy oba wypracowane rozwiązaniasą równie efektywne, ostateczna decyzja dotyczącaimplementacji podejmowane jest przez lidera.W rezultacie mamy do czynienia z kształtowaniemsię wyjątkowo kooperatywnej, merytokratycznejkultury otwartej społeczności, w której uczestniczyćmogą dowolne osoby oraz firmy, zaś ci, którzy mająw niej najwięcej (merytorycznie) do zaoferowaniamogą liczyć na uznanie ze strony innych uczestnikóworaz znaczące role na forum społeczności.Gdzie firmy angażujące się w projekt open sourcemogą dopatrywać się źródeł dochodów, skoro systemz założenia może być wykorzystywany bezpłatnie, jakstanowi licencja GPL 20 , na podstawie której udostępnianyjest Linux?Firmy zaangażowane w Linux Inc. można podzielićna trzy grupy, z których każda w inny sposób komercjalizujeswój wkład w rozwój systemu:! promotorzy kolejnych „dystrybucji” 21 Linuksa– wprawdzie podstawowa wersja Linuksa jest17J. Lerner, J. Tirole, The Simple Economics of Open Source, grudzień 2000, [maszynopis].18Charakterystyczną cechą projektów open source jest bowiem dezagregacja ich na ściśle definiowane podprojekty.19S. Hamm, Linux Inc, „BusinessWeek” 2005, nr 31/01.20Licencja GPL (General Public Licence) oznacza możliwość bezpłatnego kopiowania, użytkowania i rozpowszechnianiabinariów, jednak pod warunkiem, iż rozprowadzane są wraz z kodem źródłowym (dotyczy to także wersjikomercyjnych Linuksa).21Dystrybucje Linuksa są zbiorem gotowych do instalacji, prekompilowanych pakietów; zawierają one narzędziado instalacji i deinstalacji pakietów, jądro, ale także wiele programów usługowych, narzędzia do zarządzania systemamiplików, tworzenia i obsługi kont użytkowników, zarządzania siecią itp. Różnią się one sposobem przygotowaniasystemu, mechanizmami łączącymi pakiety w jedną całość, programem instalacyjnym, przeznaczeniem orazrodzajem i liczbą dołączanych programów. Głównymi dystrybucjami Linuksa są obecnie: Slackware – dystrybucjaniekomercyjna, Debian – dystrybucja niekomercyjna, Mandrake – dystrybucja niekomercyjna, Red Hat – dystrybucjakomercyjna, Caldera – dystrybucja komercyjna, SuSe – dystrybucja komercyjna, PLD – dystrybucja niekomercyjna,Gentoo – dystrybucja niekomercyjna.kwiecień 2008 67


zarządzanie wiedząpowszechnie bezpłatna, to jednak, ze względuna swój mało przyjazny dla użytkownika interfejs,wykorzystywana jest z reguły jedynieprzez zaawansowanych informatyków. Pozostaliużytkownicy potrzebują nie tylko instrukcji,ale także programów użytkowych, narzędzido zarządzania systemami plików, narzędzi doinstalacji, a przede wszystkim usług wspierającychklienta. Te dodatkowe usługi stanowiągłówne źródło dochodów dystrybutorów, takichjak Red Hat czy Novell;! producenci komputerów – przedsiębiorstwa,takie jak Dell, HP czy IBM sprzedają komputeryosobiste oraz serwery, na których od razuinstalują system operacyjny (właśnie Linux).Pozwala im to obniżyć koszt produktów dlaużytkownika;! producenci oprogramowania opierający swojeoprogramowanie o system operacyjny Linux.Przykład: OpenColaOpenCola to pierwszy na świecie napój gazowanytypu open source, o smaku przypominającym Coca--Colę lub Pepsi. Zgodnie z duchem open sourceproducent zgodził się na udostępnienie każdemuzainteresowanemu receptury na ten napój. Każdymoże go wyprodukować, dowolnie modyfikującrecepturę, pod warunkiem, że sam przepis pozostaniejawny.Napój miał w zamierzeniu stanowić część akcjipromującej ideę oprogramowania open source,jednak od pewnego momentu zaczął żyć swoimwłasnym życiem, a firma stała się znana jako producentnapoju, a nie oprogramowania.Początkowo na puszkach pojawiał się napisSprawdź źródło na opencola.com. Od czasu, gdyfirma zmieniła strategię promocji swoich produktów,recepturę napoju można uzyskać jedynie zapośrednictwem poczty elektronicznej. Próżnoteż szukać jakiejś wzmianki o napoju na witrynieproducenta.Podobnie jak wolne oprogramowanie, pomysłna wszelkie produkty tego rodzaju, zyskał zwolennikówwśród osób, które kładą nacisk na swobodęwymiany idei, a negatywnie oceniają ideę własnościintelektualnej i prywatnego dostępu do wiedzy.Zyskał też uznanie wśród przeciwników politykiwielkich korporacji. Wywołał również dyskusję natemat tego, w jakich obszarach ludzkiej działalnościda się z powodzeniem zastosować ideę open source.Jak dotąd OpenCola nie stała się zagrożeniem dlażadnego z gigantów, takich jak Coca-Cola czy Pepsi;sprzedano około 150 tys. puszek napoju 22 .Przykład: OpenMokoJednym z ostatnich hitów i powodem do dumyspołeczności popierającej otwarte modele biznesowejest pierwsza w pełni otwarta platforma dokomunikacji mobilnej – OpenMoko 23 .OpenMoko to projekt informatyczny, któregocelem jest stworzenie <strong>platformy</strong>, dla telefonów GSMtypu smartphone, zgodnej z ideą FLOSS – Otwartego/WolnegoOprogramowania. Dystrybucja powstajew oparciu o platformę OpenEmbedded systemuoperacyjnego GNU/Linux.Pierwszym urządzeniem z platformą OpenMokobędzie wyprodukowany przez firmę FIC telefonNeo1973. Pierwsza wersja urządzenia jest dostępnadla wybranych programistów już od lutego 2007roku. Od lipca 2007 roku możliwe jest zakupieniedeweloperskiej wersji telefonu w cenie 300 USD.Dostępność w ofercie publicznej przewiduje sięjuż wkrótce.Twórcy wierzą, że dzięki pierwszemu telefonowi,całkowicie opartemu na „otwartym oprogramowaniu”,zrewolucjonizują rynek urządzeńtelekomunikacyjnych 24 . Dzięki niemu będziemymogli instalować nowe, pojawiające się na rynkuoprogramowanie do starego telefonu – stanie sięon dostosowany do naszych nawet najbardziejwysublimowanych potrzeb, a tym samym nawetzaawansowane oprogramowanie stanie się o wielebardziej dostępne.Jaka przyszłość dla innowacji?Jak pokazują przedstawione powyżej (zarównowyniki badań literaturowych, jak też poszczególneopisy przypadków), podejście open source w procesieinnowacji może przybrać różny kształt, a przedewszystkim mieć różny zakres – od czerpania inspiracjiod klientów i realizowania dalszych etapów procesuwewnętrznymi siłami, aż po zorganizowanie całegobiznesu w formie otwartego przedsięwzięcia.Jako że sam nurt open source, a zwłaszcza jegoinklinacje dla nauki o zarządzaniu dopiero są kształtowane,trudno wobec tego wyróżnić jednoznacznieposzczególne kierunki jego rozwoju. Wydaje się, iżnajłatwiejsze do wdrożenia dla organizacji jest jedyniewłączenie klientów w procesy projektowania czydostarczania produktów. Niemniej, jak pokazują poszczególneprzykłady, niektóre z przedsięwzieć ewoluującoraz bardziej w kierunku „otwartego” modelubiznesowego (od user-driven innovation do open sourcebusiness model). Przed nauką o zarządzaniu (a tymbardziej ekonomią) stoi zatem wyzwanie opisaniai zanalizowania tych wyłaniających się zjawisk.Bibliografia i netografia dostępne są w wersji internetowej czasopisma.22http://pl.wikipedia.org/wiki/OpenCola, [19.03.2008].23http://www.openmoko.org, [19.03.2008].24http://pl.wikipedia.org/wiki/OpenMoko, [19.03.2008].68 e-<strong>mentor</strong> nr 2 (24)


PolecamyMarian Mroziewski, Kapitał intelektualny współczesnego przedsiębiorstwa.Koncepcje, metody wartościowania i warunki jego rozwoju, Difin, Warszawa 2008Na całkowitą wartość przedsiębiorstwa składają się nie tylko elementy kapitału materialnego,lecz również kapitału intelektualnego (KI): społecznego, ludzkiego i organizacyjnego. Jegokompleksową charakterystykę prezentuje publikacja M. Mroziewskiego.Autor omawia dominujące obecnie modele kapitału intelektualnego konstruowane w ujęciustatycznym (m.in. podejście rachunkowe, koncepcję marketingową, interpretację holistyczno-statyczną),a także podejmuje próbę opracowania koncepcji oceny składowych KI w podejściudynamicznym, społecznym i jakościowym. W publikacji dokonano również ocenypozycji konkurencyjnej Polski oraz zaproponowano kierunki działań na rzecz wzmocnieniakapitału intelektualnego w kraju.Książka adresowana jest do badaczy KI, a także studentów nauk o zarządzaniu i innychnauk ekonomicznych.Można ją nabyć w księgarni internetowej wydawnictwa: http://ksiegarnia.difin.plTechnologie i systemy komunikacji oraz zarządzania informacją i wiedząred. Leszek Kiełtyka, Difin, Warszawa 2008Publikacja została wydana w ramach cyklicznie odbywających się konferencji Multimediaw Zarządzaniu, zapoczątkowanych przez Katedrę Informatycznych Systemów ZarządzaniaWydziału Zarządzania Politechniki Częstochowskiej. Stanowi ona zbiór referatów omawiającychzagadnienia związane z tematyką zarządzania, informacją i wiedzą.Opracowania zostały w książce ujęte w pięć głównych części. W części pierwszej pt. Technologieinformacyjne w zarządzaniu przedsiębiorstwem zaprezentowano m.in. multimedia sieciowew biznesie, wpływ technologii mobilnych na zmiany w organizacji oraz ocenę użytecznościserwisu internetowego. Część druga pt. Gospodarka elektroniczna przedstawia strukturę organizacjiwirtualnej, elektroniczne usługi finansowe, e-planowanie, a także e-prasę. W kolejnejczęści pt. Zarządzanie wiedzą warte uwagi są rozdziały poświęcone kodyfikacji i personalizacjiwiedzy, bezpieczeństwu informacji oraz zależności pomiędzy marketingiem a potrzebamiinformacyjnymi przedsiębiorstwa. Część czwarta pt. Multimedia w edukacji zawiera omówieniezastosowania programów multimedialnych, internetu, czy wideokonferencji w dydaktyce,jak również wykorzystania ICT w telepracy. Ostatnia część została poświęcona systemom wspomagania decyzji,w tym sztucznej inteligencji.Publikację można nabyć w księgarni internetowej wydawnictwa: http://ksiegarnia.difin.plKapitał ludzki – innowacje – przedsiębiorczość. Rola ośrodków innowacji i przedsiębiorczości w nowymokresie programowania UE, 7–9 maja 2008 r., Krynica i Nowy SączKonferencja z cyklu Kapitał ludzki – innowacje – przedsiębiorczość przygotowywana jest przez StowarzyszenieOrganizatorów Ośrodków Innowacji i Przedsiębiorczości w Polsce już po raz dziewiętnasty. Kierowana jest onaw szczególności do przedstawicieli parków i inkubatorów technologicznych, Centrów Transferu Technologii, Preinkubatorów,funduszy zalążkowych, pożyczkowych i poręczeniowych, ośrodków wspierania przedsiębiorczościzajmujących się transferem technologii, pomocą dla innowacyjnych firm odpryskowych, zwalczaniem bezrobocia,aktywizowaniem gospodarczym regionów i grup szczególnie zagrożonych.W trakcie konferencji jej uczestnicy dokonają podsumowania dotychczasowej działalności ze szczególnym uwzględnieniem4 lat w Unii Europejskiej. Główne obszary dyskusji merytorycznej obejmą zagadnienia takie jak:• Ewolucja krajowego systemu wsparcia przedsiębiorczości i transferu technologii;• Przedsiębiorczość akademicka i model Uniwersytetu III Generacji;• Finansowanie tworzenia i rozwoju nowych technologicznych firm;• Zwiększanie konkurencyjności gospodarki za pomocą funduszy europejskich 2007–2013;• Tendencje rozwoju małych i średnich przedsiębiorstw w Polsce;• Realizacja Strategii Lizbońskiej w Polsce i Europie.Organizatorzy konferencji przewidują udział około 200 osób, w tym przedstawicieli: administracji centralneji samorządów, świata nauki i biznesu.Więcej informacji na: http://www.cittru.uj.edu.plkwiecień 2008 69


kształcenie ustawiczneMotywy uczestnictwanauczycieli w kształceniuustawicznymAleksandra LitawaW opracowaniu przedstawiono wyniki badań, których celembyło rozpoznanie potrzeb edukacyjnych i wynikającychz nich motywów uczestnictwa nauczycieli w kształceniuustawicznym oraz ustalenie zależności pomiędzy długościąstażu pracy pedagoga a rodzajem zaistniałej u niegomotywacji.Uczestnictwo w kształceniu ustawicznym w dobiespołeczeństwa informacyjnego jest jedynym sposobemna skuteczne przystosowanie się człowieka do zmianwynikających z postępu cywilizacyjnego. Bogactwoform organizacyjnych oświaty dorosłych 1 sprawia, żeedukacja stała się dobrem dostępnym dla wszystkich,bez względu na wiek, poziom wykształcenia czy zasobnośćportfela. Zgodnie z ideą myśli andragogicznejludzie dorośli chcą uczestniczyć w edukacji, nie czyniątego tylko wtedy, gdy nie uświadamiają sobie odczuwanychw tym zakresie potrzeb 2 . Dlatego tak istotnąrolę w edukacji ustawicznej odgrywa motywacja– jeden z najważniejszych czynników warunkującychefektywność uczenia się człowieka dorosłego.Problematyka treści opracowania dotyczy potrzebi wynikających z nich motywów uczestnictwaw edukacji permanentnej nauczycieli – specyficznejgrupy zawodowej, niejako „skazanej” na ciągłe dokształcaniesię 3 . Przytoczone w opracowaniu wynikibadań pozwalają uzyskać odpowiedź na pytania: Coskłania nauczyciela do podejmowania trudu dalszegokształcenia? Na jakie przeszkody napotyka nauczycielchcący się dokształcać?Celem badań było rozpoznanie motywów podejmowaniakształcenia przez nauczycieli czynnychzawodowo oraz ustalenie zależności pomiędzy długościąstażu pracy a rodzajem zaistniałej motywacji.Sformułowano hipotezę, że w przypadku nauczycielio krótszym stażu pracy (do 5 lat) motywacja uczest-nictwa w edukacji ustawicznej ma charakter pragmatyczny,natomiast w przypadku pedagogów z dłuższymstażem pracy (mianowanych i dyplomowanych)przeważają motywy natury intelektualnej.Charakterystyka obszaru badań i populacjibadawczejZajęcia na podyplomowych studiach kwalifikacyjnychdla nauczycieli w zakresie ICT (kompetencjeinformatyczne), języków obcych oraz drugiego przedmiotuodbywały się na Uniwersytecie Jagiellońskimw okresie od lipca 2007 roku do marca 2008 roku w ramachSektorowego Programu Operacyjnego – RozwójZasobów Ludzkich (SPO RZL). W trakcie trwania zajęćszkolnych spotkania miały miejsce w weekendy, dwarazy w miesiącu. Ich intensywność wzrastała podczaswakacji i ferii, kiedy to zjazdy trwały po 9 dni. Ofertatrójsemestralnych (460 godzin) studiów skierowanabyła do nauczycieli z województwa małopolskiegozainteresowanych uzyskaniem formalnych kwalifikacjido prowadzenia zajęć z drugiego przedmiotu. Warunkiemkoniecznym do spełnienia przez kandydatówbyło posiadanie wyższego wykształcenia (poziommagisterski), przygotowania pedagogicznego orazzatrudnienia w wymiarze co najmniej połowy etatu.Przedsięwzięcie zostało sfinansowane ze środkówEuropejskiego Funduszu Społecznego (EFS) orazbudżetu państwa 4 .Badania przeprowadzono w dniach 23 i 24 lutego2008 roku podczas przedostatniego zjazdu uczestnikówstudiów podyplomowych. Ankietą objęto celowągrupę 100 (N = 100) słuchaczy kierunku wiedzao społeczeństwie, którą tworzyli nauczyciele szkółpodstawowych, gimnazjalnych i ponadgimnazjalnych,w wieku od 24 do 52 lat, o stażu pracy rozciągającym1Z. Szarota, W poszukiwaniu tożsamości andragogiki – próba organizacji wiodących pojęć oświaty dorosłych [w:] T. Aleksander,D. Barwińska (red.), Stan i perspektywy rozwoju refleksji nad edukacją dorosłych, Wydawnictwo UniwersytetuJagiellońskiego, Kraków–Radom 2007, s. 360–369.2M. Malewski, Teorie andragogiczne. Metodologia teoretyczności dyscypliny naukowej, Wydawnictwo Uniwersytetu Wrocławskiego,Wrocław 1998, s. 17.3Zgodnie z Kartą Nauczyciela powinnością pedagoga jest dążenie do własnego rozwoju osobowego (Dz. U. z 2003 r.,Nr 118, poz. 1112).4http://www.podyplomowe.uj.edu.pl/wiedzaospoleczenstwie/index.htm, [15.03.2008].70 e-<strong>mentor</strong> nr 2 (24)


Motywy uczestnictwa nauczycieli w kształceniu ustawicznymsię od roku do 29 lat. Zdecydowana większość respondentówto kobiety (83 osoby). Największą grupęwśród badanych stanowili nauczyciele dyplomowani(48 osób), najmniejszą stażyści (8 osób). Dane natemat stażu pracy i zajmowanego przez nauczycielistanowiska ukazano w tabelach 1. i 2.Tabela 1. Staż pracy badanych nauczycieliStaż pracyPonad15 latDo15 latDo10 latDo5 latLiczba37 16 19 28osóbRazem N = 100 %Źródło: opracowanie własneTabela 2. Szczebel awansu zawodowego badanych nauczycieliStanowiskoNauczycieldyplomowanyNauczycielmianowanyNauczycielkontraktowyOkazuje się, że stopień awansu zawodowego i stażpracy nauczycieli to w wielu przypadkach kwestie rozłączne.Dla przykładu, w starszej grupie pracowniczejtrzy spośród badanych osób uzyskały stopień nauczycieladyplomowanego już po 9 latach pracy, z koleijedna ze słuchaczek, mimo 29 lat pracy w zawodzie,nadal posiadała stopień nauczyciela mianowanego.Nieco inaczej przedstawiała się sprawa stażystówi nauczycieli kontraktowych. W ich przypadku stażpracy nie przekroczył pięciu lat.Współczesny nauczyciel bywa zmuszony łączyćpracę w kilku szkołach. Znikomy przyrost naturalnyskutkuje zmniejszoną liczbą uczniów, a co za tymidzie – również godzin pracy nauczycieli. Wśródbadanych osób dominowali jednak nauczyciele pracującyw jednej szkole (69 osób), drugą pod względemwielkości grupę stanowili nauczyciele uczącyw dwóch typach szkół (30 osób), a tylko jedna osobazatrudniona była w trzech typach szkół. Dane na tematwielości miejsc pracy nauczycieli przedstawionona wykresie 1.W grupie pracujących w jednej szkole najwięcej odnotowanonauczycieli gimnazjalnych (30 osób), a następnieuczących w szkołach ponadgimnazjalnych (26 osób)i podstawowych (13 osób).Wśród nauczycieli łączących pracę w dwóch typachszkół najwięcej osób (20) wskazało szkołę podstawowąi gimnazjum, w drugiej kolejności znalazłysię szkoły gimnazjalne i ponadgimnazjalne, najmniejodnotowano przypadków nauczycieli pracującychrównocześnie w szkole podstawowej i średniej (2 osoby).Tylko jedna osoba zatrudniona była jednocześniewe wszystkich trzech typach szkół.Powszechnie zaistniałym faktem wśród nauczycieliokazała się dwuprzedmiotowość: 52 proc. nauczycieliuczyło więcej niż jednego przedmiotu. Dominującymprzedmiotem nauczania była historia (55 osób), kolejnymi– wiedza o społeczeństwie (32 osoby) i językpolski (17 osób). W przypadku nauczycieli „dwu-NauczycielstażystaLiczbaosób48 24 20 8Razem N = 100%Źródło: opracowanie własneprzedmiotowych” prym wiódł duet historiiz wiedzą o społeczeństwie. Pozostałe przedmioty,których uczyli słuchacze, to geografiaoraz język obcy (po 5 osób), wychowaniedo życia w rodzinie (4 osoby), informatykai biologia (po 3 osoby), religia, chemia, wychowaniefizyczne (po 2 osoby), filozofia,wiedza o kulturze i przedsiębiorczość (po1 osobie). Najwięcej słuchaczy pochodziło zewsi (31 osób), na drugim miejscu znalazło sięWykres 1. Wielość miejsc pracy nauczycieliŹródło: opracowanie własneTabela 3. Miejsce zamieszkania słuchaczy studiów podyplomowychMiejsce zamieszkaniaWieśMiasto powyżej100 tys. mieszkańcówMiastodo 100 tys. mieszkańcówMiastodo 15 tys. mieszkańcówLiczba słuchaczy 31 28 25 16Razem N = 100 = 100%Źródło: opracowanie własnekwiecień 2008 71


kształcenie ustawicznemiasto powyżej 100 tysięcy mieszkańców, którymw tym wypadku był Kraków. Ponad 70 proc. objętychbadaniami słuchaczy (72 osoby) dojeżdżało na zajęciaz innych miejscowości, niektórzy nawet ponad stokilometrów (tabela 3).Motywy aktywności edukacyjnejnauczycieliZgodnie z teorią A.H. Maslowa, działanie człowiekajest wielomotywacyjne. Podjęcie aktywności w określonejdziedzinie wynika z odczucia przez podmiotokreślonych potrzeb. Najniżej w hierarchii znajdująsię potrzeby fizjologiczne i bezpieczeństwa – z nichwyłaniają się motywy natury pragmatycznej. Kolejnepotrzeby: przynależności, szacunku i uznania generująpowstanie motywów natury społecznej. Najwyższemiejsce w hierarchii zajmują potrzeby samorealizacjii autokreacji – ich następstwem są motywy natury intelektualnej5 . Innymi słowy: pytanie – czego mi brakuje?implikuje zaistnienie motywów natury pragmatycznej,społecznej bądź intelektualnej, w zależności od rodzajuodczuwanych przez jednostkę braków.Motywy pragmatyczne wiążą się przede wszystkimz obszarem pracy zawodowej, zarobkami i podstawowymipotrzebami materialnymi człowieka. W sferzemotywów utylitarnych znajdzie się również chęćzdobycia pracy, uzyskania bądź uzupełnienia kwalifikacjizawodowych, polepszenia własnej sytuacjimaterialnej. Od wiedzy oczekuje się jej użytecznościi stosowalności.Motywy społeczne wynikają z chęci przystosowaniasię jednostki do środowiska społecznego, dorównaniainnym, jak również z dążenia do uzyskania zadowalającejpozycji społecznej, awansu społecznego i zawodowego,do bycia autorytetem, zdobycia szacunkui uznania ze strony innych osób oraz potwierdzeniawłasnego znaczenia. Zaspokojenie wymienionychpotrzeb zwiększa wiarę we własne siły oraz poczuciegodności człowieka.Z kolei motywy intelektualne powstają z potrzebpoznawczych i estetycznych – obcowania z pięknem,kontaktu z kulturą i sztuką. Pogłębianie wiedzy odbywasię w celu zrozumienia otaczającego świata, niedla uzyskania formalnych uprawnień czy jakichkolwiekpraktycznych korzyści 6 .Jakimi zatem motywami kierowali się nauczycieleprzy podejmowaniu decyzji o dalszym kształceniu?Czy staż pracy miał jakikolwiek wpływ na rodzaj zaistniałeju nich motywacji?Badanych podzielono na dwie grupy. Pierwsząstanowili nauczyciele stażyści i kontraktowi (N=28),których staż pracy nie przekroczył 5 lat, drugą – nauczycielemianowani i dyplomowani (N = 72).W obu grupach wyodrębniono dwa dominującemotywy podejmowania dalszego kształcenia: chęćposzerzenia i uzupełnienia wiedzy, czyli motyw intelektualny(młodsza grupa zawodowa – 26,96 proc. i starszagrupa zawodowa – 24,18 proc.) oraz chęć poszerzeniakompetencji zawodowych, czyli motyw pragmatyczny(odpowiednio – 23,59 proc. i 24,65 proc.). Otrzymanewyniki nie wykazały znaczących rozbieżności. Różnicawyniosła 2,78 punktu procentowego w pierwszym przypadkuna korzyść nauczycieli z niższym stanowiskiemi 1,06 punktu procentowego na korzyść nauczycielimianowanych i dyplomowanych w przypadku drugim.Motywacje członków omawianej grupy zawodowejsą podobne na każdym etapie pracy zawodowejw przypadku ambicji zawodowej (młodsza grupazawodowa – 5,61 proc., starsza – 5,58 proc.), odczuwaniapresji otoczenia (odpowiednio – 2,24 proc. wobec1,39 proc.), chęci spożytkowania wolnego czasu(1,12 proc. wobec 1,39 proc.), a także koniecznościsprostania wymogom reformy systemu oświaty (7,86proc. wobec 9,76 proc.).Stosunkowo największa rozbieżność w odpowiedziachnauczycieli poszczególnych grup pojawiłasię w przypadku motywu dotyczącego perspektywyawansu zawodowego – u nauczycieli młodszych stażemmotyw ten okazał się o wiele silniejszy niż u starszychkolegów (19,10 proc. wobec 6,04 proc.). Podobnierzecz się miała w przypadku innego motywu – chęciutrzymania zajmowanego stanowiska, tyle że tym razemto dla starszych stażem nauczycieli był on bardziejznaczący (analogicznie 4,49 proc. wobec 10,23 proc.).Kolejną istotną różnicę można dostrzec w motywacjinatury społecznej – o wiele większą chęć nawiązania nastudiach nowych kontaktów wykazali nauczyciele mianowanii dyplomowani (6,74 proc. wobec 11,62 proc.)oraz w motywacji natury pragmatycznej – ponad dwukrotniesilniejszą motywacją dla nauczycieli z wyższymstopniem awansu okazał się nacisk ze strony dyrektora(5,11 proc. wobec 2,24 proc.). Szczegółowe daneuzyskane z analizy materiału badawczego ukazanow tabeli 4.Dwa spośród wymienionych motywów posiadałyzdecydowanie heterogenny charakter – zarówno„wymagania reformy oświaty”, jak i „nacisk ze stronydyrektora”, stanowiły swoisty przymus.Dla dalszych analiz konieczne było połączenieposzczególnych motywów w kategorie pojęciowe. Dokategorii motywów natury pragmatycznej przyporządkowanomotywy o numerach (tabela 4.): 2, 3, 5, 6 i 8;do społecznej wiersze: 4, 7 i 9; do intelektualnej zaś:1 i 10. Mimo widocznych w pierwszym momencie różnicpomiędzy odpowiedziami nauczycieli młodszychstażem a nauczycieli mianowanych i dyplomowanych,obie grupy wskazały bardzo podobną hierarchię motywów,obalając tym samym tezę postawioną na początkuprezentowanych rozważań. Badania wykazały,że długość stażu pracy nauczyciela nie ma wpływu narodzaj zaistniałej u niego motywacji do podejmowania5T. Aleksander, Motywy kontynuowania nauki na studiach zaocznych [w:] T. Aleksander (red.), Teoretyczne i praktyczne aspektyedukacji kulturalnej oraz oświaty dorosłych, Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2006, s. 155.6F. Urbańczyk, Dydaktyka dorosłych, Ossolineum, Wrocław 1973, s. 79–89.72 e-<strong>mentor</strong> nr 2 (24)


Motywy uczestnictwa nauczycieli w kształceniu ustawicznymTabela 4. Motywy podejmowania nauki na studiach podyplomowychdalszego kształcenia. Bez względu na długość stażupracy u podstaw decyzji nauczycieli o rozpoczęciukształcenia na studiach podyplomowych znalazły sięmotywy natury pragmatycznej. Na drugim miejscuznalazły się motywy intelektualne, najmniej osóbwskazało na motywy natury społecznej. Dane na tentemat przedstawiono na wykresie 2.Praca zawodowa stymuluje aktywność edukacyjnąnauczycieli, jednak głównie w sferze potrzebutylitarnych. W przypadku badanych pedagogówedukacja ustawiczna podejmowana jest ze względu naNauczyciele stażyścii kontraktowiNauczyciele mianowanii dyplomowaniL.p.MotywyOdpowiedzi w %1 Chęć poszerzenia i uzupełnienia wiedzy 26,97 24,192 Chęć poszerzenia kompetencji zawodowych 23,59 24,653 Perspektywa awansu zawodowego 19,10 6,054 Chęć poznania nowych ludzi 6,74 11,635 Wymagania reformy systemu oświaty 7,87 9,776 Chęć utrzymania zajmowanego stanowiska 4,49 10,237 Ambicje zawodowe 5,62 5,588 Nacisk ze strony dyrektora 2,25 5,129 Presja otoczenia (Inni się dokształcają, dlaczego ja nie?) 2,25 1,3910 Chęć spożytkowania wolnego czasu 1,12 1,39Razem N = 89 = 100% N = 215 = 100%Źródło: opracowanie własneWykres 2. Motywy uczestnictwa nauczycieli w kształceniu ustawicznymŹródło: opracowanie własneużyteczność wiedzy i umiejętności. Potwierdzeniemsłuszności tej tezy są odpowiedzi respondentów,udzielone na pytanie o profity wyniesione z uczestnictwaw studiach podyplomowych. Najwięcej osóbwskazało na korzyści pragmatyczne związane z pracązawodową: podniesienie kwalifikacji zawodowych(22,72 proc. – młodsza grupa zawodowa, 17,75 proc.– starsza), uzyskanie uprawnień do prowadzenia drugiegoprzedmiotu (odpowiednio – 23,86 proc. i 15,88proc.), poszerzenie wiedzy metodycznej (11,36 proc.wobec 8,41 proc.) oraz spełnienie wymogów pracodawcy,w którym to przypadkuodnotowano znacznąrozbieżność (1,13 proc. wobec15,88 proc.) – różnicawyniosła 14,75 punktówprocentowych. Na dalszymplanie, za korzyściami pragmatycznymi,znalazły się teo charakterze społecznym– nawiązanie nowych kontaktów(młodsza grupa zawodowa– 19,31 proc., starsza– 18,69 proc.). Interesującewnioski można wysnuć z analizyrozkładu wskazań dotyczącychsatysfakcji osobistej,gdzie również zaobserwowanodużą rozbieżność (3,4proc. wobec 11,21 proc.). Dlastarszej grupy pracowniczejbardzo ważną kwestią jest zaspokojeniepotrzeby uznaniai szacunku ze strony innych.Osoby te najchętniej przyjmująna siebie role <strong>mentor</strong>ów dlamłodszych kolegów.kwiecień 2008 73


kształcenie ustawiczneTabela 5. Korzyści wyniesione z uczestnictwa w studiach podyplomowychLp.Korzyści1 Nawiązanie nowych kontaktów, poznanie ludzi o podobnychzainteresowaniachNauczyciele stażyścii kontraktowiNauczyciele mianowanii dyplomowani19,32 21,502 Podniesienie kwalifikacji zawodowych 22,73 17,763 Uzyskanie uprawnień do prowadzenia drugiego przedmiotu 23,86 15,894 Poszerzenie i uzupełnienie wiedzy ogólnej 18,18 18,695 Poszerzenie wiedzy metodycznej 11,36 8,416 Satysfakcja osobista 3,41 11,217 Święty spokój – teraz spełniam wymogi reformy oświaty,mogę spokojnie pracować dalej1,14 6,54Źródło: opracowanie własneRazem N = 88 = 100% N = 107 = 100%Na ostatnim miejscu znalazły się korzyści wynikającez poszerzenia i uzupełnienia wiedzy ogólnej, czyli intelektualne(odpowiednio – 18,18 proc. i 18,69 proc.).Zważywszy na fakt, że spośród zaproponowanychw ankiecie jedynie ta kategoria ilustruje potrzeby poznawcze,jest to bardzo wysoka wartość (tabela 5.).Do czynników warunkujących udział osób dorosłychw procesie kształcenia ustawicznego, wpływającychna motywy podejmowania przez nich naukinależą różnego rodzaju trudności, z którymi musząborykać się na co dzień z racji pełnionych przez siebieról społecznych i obowiązków. Bariery edukacyjnemogą wypływać ze środowiska, w którym człowiekdorosły działa (zewnętrzne) bądź tkwić w jego osobowości(wewnętrzne) 7 .Badania wykazały, że największą trudnością, z jakąprzyszło uporać się słuchaczom studiów podyplomowych,był brak czasu na naukę i przemęczenie(81 odpowiedzi). Dla 33 osób znaczący problemstanowił długi czas dojazdu na zajęcia, z kolei dla 27słuchaczy trudność wynikała z faktu, że przekazywanena zajęciach treści rozmijały się z ich zainteresowaniami.Pozostałe dane dotyczące trudności edukacyjnychnauczycieli zamieszczono w tabeli 6.Większość trudności, na jakie napotykali słuchaczestudiów podyplomowych wynikało z niekorzystnychwarunków zewnętrznych (ponad 88 proc.). Jeśli chodzio wewnętrzne bariery edukacyjne, słuchacze mielikłopot z opanowaniem dużych ilości materiału, cowynikać może ze złych nawyków uczenia się i brakuwiary we własne możliwości (ponad 11 proc.).Warto odnotować fakt, że omawiane studia podyplomowe,dzięki dofinansowaniu z Unii Europejskieji budżetu państwa, nie obciążyły materialnie słucha-Tabela 6. Trudności edukacyjne nauczycieliBariery edukacyjne Rodzaj trudności Liczba odpowiedzi N = 171 %Zewnętrzne(środowiskowe)Wewnętrzne(osobowościowe)Źródło: opracowanie własneBrak czasu na naukę, przemęczenie 81 47,37Długi czas dojazdu na zajęcia 33 19,30Przekazywane na studiach treści nie współgrająz moimi potrzebami i zainteresowaniami27 15,79Mało atrakcyjne i monotonne zajęcia 10 5,85Za dużo egzaminów w jednym czasie 1 0,58Razem 152 88,89Kłopot z opanowaniem dużych ilości materiału 12 7,02Złe nawyki uczenia się, lęk przed porażką, niska6 3,51samoocena, brak wiary we własne możliwościCałkiem nowe zagadnienia do opanowania 1 0,58Razem 19 11,117M. Malewski, Teorie andragogiczne… , dz. cyt., s. 18.74 e-<strong>mentor</strong> nr 2 (24)


Motywy uczestnictwa nauczycieli w kształceniu ustawicznymczy. Jak pokazały wyniki badań, dla 96 spośród 100respondentów nieodpłatność studiów miała wpływ napodjęcie decyzji o rozpoczęciu nauki. Tylko 24 spośródbadanych osób zdecydowałyby się na uczestnictwow kształceniu, gdyby za studia trzeba było zapłacić. Takiwynik jednoznacznie wskazuje na kolejną, potencjalnąbarierę edukacyjną, z którą w innych okolicznościachnauczycielom przyszłoby się zmierzyć, a której w tymwypadku udało się uniknąć.PodsumowanieKolejny raz słuszne okazało się stwierdzenie, żeczłowieka dorosłego najsilniej motywuje do nauki to,co bezpośrednio związane jest z jego pracą zawodową.Nauczyciele nie stanowią tutaj wyjątku. Do podejmowaniatrudu dalszego kształcenia, bez względu nastopień awansu zawodowego, nauczycieli skłaniająprzede wszystkim motywy natury pragmatycznej. Różnicaw tym obszarze motywacji nauczycieli z niższymi wyższym stanowiskiem wyniosła zaledwie 1,5 punktuprocentowego. Nieco większa rozbieżność wystąpiław przypadku motywów o charakterze intelektualnym– 2,5 punktu, największą różnicę odnotowanow zakresie motywów natury społecznej – 4 punktyprocentowe.Uczestnictwo w kształceniu ustawicznym nauczycieliwiąże się z pokonywaniem przez nich różnegorodzaju przeszkód. Wśród wymienianych przez respondentówtrudności dominowały te o charakterzezewnętrznym. Brak czasu na naukę i przemęczenieokazały się największą barierą aktywności edukacyjnejdla nauczycieli.W przypadku omawianej grupy zawodowej potrzebaustawicznego doskonalenia się nie służy jedynie dostosowaniusię do zmian otaczającego świata, ale przedewszystkim ma zagwarantować wysoki poziom kształceniai wychowania we współczesnej szkole, bowiem[...] rola nauczyciela jako promotora zmian, orędownikawzajemnego zrozumienia i tolerancji nigdy jeszcze nie byłatak oczywista 8 . Dlatego o wiele ważniejsze od motywów,jakimi kierują się nauczyciele w podejmowaniukształcenia, wydaje się być to, czy w ogóle odczuwająpotrzebę inwestowania w swój rozwój intelektualny.Bibliografia i netografia dostępne sąw wersji internetowej czasopisma.Autorka jest asystentką w Krakowskiej Szkole Wyższejim. A. Frycza Modrzewskiego. Ukończyła studia pedagogicznena Uniwersytecie Jagiellońskim (specjalność: animacjakultury). W jej dorobku mieści się kilka opracowańo tematyce andragogicznej i gerontologicznej.8Edukacja: jest w niej ukryty skarb: Raport dla UNESCOMiędzynarodowej Komisji ds. Edukacji dla XXI wieku,pod przewodnictwem Jacques’a Delorsa (tłum. z fr.W. Rabczuk), Stowarzyszenie Oświatowców Polskich,Warszawa 1998, s. 147.PolecamyHenryka Kwiatkowska,Pedeutologia, WydawnictwaAkademickie i Profesjonalne,Warszawa 2008Jest to kolejny podręcznik akademickiz nowej serii wydawniczej Pedagogikawobec współczesności, a zarazem pierwszyprezentujący zagadnienia pedeutologii.Publikacja adresowana jestw szczególności do studentów i wykładowcówpedagogiki oraz kierunkówpokrewnych, które przygotowująstudentów do pracy nauczycielskiejw systemie szkolnym. Książka ma układ problemowy.Autorka podręcznika, będąca niekwestionowanym specjalistąpedagogiem – pedeutologiem, omawia w nimzagadnienia dotyczące m.in. cech osobowości nauczycieli,a także ich wpływu na proces kształcenia i wychowania.Obala mity związane ze społecznym odbiorem funkcjinauczyciela, podkreślając jednocześnie oczekiwaniai trudności związane z pełnioną przez niego rolą, ujmowanątakże w kontekście kulturowo-społecznym. Ponadtocharakteryzuje zagadnienie efektywności kształceniajako wyniku pewnej pracy nauczycielskiej. Książka tainspiruje do refleksji, skłania do dyskusji i poszukiwaniaskutecznych rozwiązań sytuacji edukacyjnych.Publikację można nabyć w księgarni internetowej wydawnictwa:http://www.waip.com.plMożliwości i ograniczeniakształcenia ustawicznego, red.Zbigniew Paweł Kruszewski,Wydawnictwo NaukoweNOVUM Sp. z o.o., Płock 2008Niniejsza publikacja, przygotowanaw formie studium monograficznego,stanowi próbę całościowego spojrzeniana zagadnienie kształcenia ustawicznego.Scharakteryzowano w niej zarównopozytywne strony i efekty edukacjipermanentnej, jak też wskazano ukryteaspekty utrudniające działania edukacyjne podejmowanena przestrzeni całego życia. Podkreślono również koniecznośćdoskonalenia stosowanych form, metod i narzędziw procesach edukacyjnych, tak aby uwzględniały onezachodzące przemiany cywilizacyjne i tym samym stawałysię funkcjonalne w społeczeństwie informacyjnym.Książka zawiera 31 referatów będących w większościzapisem wystąpień konferencyjnych z ubiegłorocznegospotkania na temat możliwości i ograniczeń kształceniaustawicznego w Polsce, ze szczególnym uwzględnieniemwojewództwa mazowieckiego. W rozdziale I i II opisanoodpowiednio – nadzieje i rozdroża edukacji ustawicznej.Rozdział III ukazuje technologie informacyjno-komunikacyjnejako perspektywę rozwoju edukacji ustawicznej.W ostatniej części opisano przykłady dobrych praktykw realizacji idei kształcenia ustawicznego na Mazowszu.Informacje dotyczące możliwości nabycia publikacji możnauzyskać na stronie wydawcy: http://www.wnn.plkwiecień 2008 75


e-biznes<strong>Ocena</strong> <strong>zachowania</strong> użytkowników<strong>platformy</strong> <strong>handlu</strong> <strong>C2C</strong>na podstawie eksploracji danych i ich aktywnościw internetowym systemie aukcyjnymArtur Strzelecki, Tomasz Bacewicz, Marcin ŚciańskiBadanie pokazuje rezultaty ilościowej oraz jakościowejanalizy <strong>zachowania</strong> użytkowników w systemie aukcjielektronicznych. Dane użyte w przeprowadzonym doświadczeniuzostały pobrane z największego polskiegoportalu aukcyjnego Allegro, od początku jego istnienia.Artykuł ukazuje dynamikę rozwoju serwisu aukcyjnegooraz specyfikę zachowań użytkowników. W szczególnościopracowanie skupia się na analizie negatywnych zachowańużytkowników oraz zaobserwowanych trendach rozwoju<strong>platformy</strong> <strong>handlu</strong> elektronicznego.Wzrost liczby zarejestrowanych użytkownikóworaz przeprowadzonych przez nich transakcji pokazujezwiększającą się popularność internetowychsystemów aukcyjnych. Zaletą <strong>handlu</strong> elektronicznego<strong>C2C</strong> jest atrakcyjność cen, szeroka oferta asortymentu,możliwość szybkiego odnalezienia produktu i wygodazawierania transakcji. Oprócz niezawodności systemuaukcyjnego od strony technicznej, fundamentalneznaczenie ma zaufanie kupującego do sprzedawcy,który swą wiarygodność potwierdza otrzymanymikomentarzami.Każda jednostka funkcjonująca w gospodarcerynkowej i dokonująca transakcji wymiany dąży dorealizacji pewnych celów. Ze strony sprzedającego,który kieruje się kryterium rentowności, jest to maksymalizacjazysku. Sprzedawca kieruje swój towardo określonej grupy docelowej, wierząc w trafnośćpodjętych do tej pory decyzji, dotyczących m.in. cenyoraz zakresu działalności. Dopiero po dokonaniu siętransakcji kupna-sprzedaży rynek daje odpowiedź,na ile podjęte przez sprzedawcę działania okazująsię rentowne 1 . Transakcje zawierane obecnie zapośrednictwem internetu dają przestrzeń do rozwojunowej gałęzi <strong>handlu</strong>, jaką jest e-retailing 2 , czylielektroniczna sprzedaż detaliczna. Trzeba pamiętaćo drzemiącym w tym rynku potencjale do wzrostu,z uwagi na powiększającą się liczbę użytkownikówinternetu. Jednocześnie rozwaga nakazuje przypomnieć,że e-retailing nie zlikwidował ewidentnegokonfliktu interesów występującego pomiędzy sprzedawcą,który zwiększa zyski a kupującym, którydąży do tego, aby wydana przez niego kwota byłajak najmniejsza. Następuje zatem próba osiągnięciaprzez stronę transakcji dodatkowych korzyści, niezawsze na drodze uczciwych działań.Skrajnym przykładem takiego <strong>zachowania</strong> jestużytkownik o nazwie MacKenzie22, który podczasswojej działalności na portalu oszukał ponad 150osób na łączną kwotę przekraczającą 60 tys. złotych.Do zatrzymania doszło dopiero po 4 latach oddokonania pierwszych oszustw. Zaskakuje fakt, jakwiele osób zaufało temu użytkownikowi, pomimo,iż posiadał na swoim koncie niemałą już liczbę komentarzynegatywnych. Kwestią niewątpliwie wartąporuszenia jest więc zdolność budowania zaufaniaużytkownika do witryny oraz innych internatów. Poziomuzyskanego zaufania musi przekroczyć wielkośćryzyka, przed którym stoi nabywca decydujący sięna udział w aukcji 3 . Ryzyko ponoszone przez kupującego,przed którym ciężko jest się zabezpieczyćwynika z technologicznej charakterystyki kanałuwymiany oraz wartości towaru. Przede wszystkimsprzedający jest postacią anonimową, reprezentowanąjedynie poprzez zapis podstawowych danychw systemie. Odległość, jaka dzieli kontrahentów jestznacznie większa niż w transakcjach tradycyjnychi co najważniejsze – kupujący nie może bezpośrednioocenić produktu czy usługi. Pozostaje pytanie,w jakim stopniu w ocenie wiarygodności użytecznyjest wspomniany system komentarzy. Na ile zawartew nim informacje dokładnie odzwierciedlająprzebieg przeprowadzanych transakcji i czy prosteporównanie stosunku komentarzy pozytywnychdo negatywnych jest skutecznym sposobem ocenysprzedawcy?W następnej części opracowania omówione zostałypokrewne prace z dziedziny aukcji elektronicznych.1R. Milewski, Podstawy Ekonomii, PWN, Warszawa 1999, s. 57.2J. Banasikowska, I. Woźniak, Transakcje elektroniczne i czynniki wpływające na ich rozwój [w:] H. Sroka, T. Porębska-Miąc(red.), Systemy Wspomagania Organizacji, Akademia Ekonomiczna, Katowice 2003, s. 391–398.3M. Waszczyk, Zaufanie w detalicznych transakcjach internetowych, „Prakseologia” 2003, nr 143, s. 305–316.76 e-<strong>mentor</strong> nr 2 (24)


<strong>Ocena</strong> <strong>zachowania</strong> użytkowników <strong>platformy</strong> <strong>handlu</strong> <strong>C2C</strong>...Część trzecia poświęcona jest pojęciom związanymz aukcjami. W części czwartej autorzy przedstawiająsposób pozyskiwania danych do analizy oraz prezentująotrzymane wyniki. W ostatniej zaś przedstawionownioski i zaproponowano dalsze kierunki rozwojubadań.Przegląd dziedzinyDotychczas pojawiło się kilka prac, w których autorzybadali różne aspekty związane z działaniem serwisówaukcyjnych. Dariusz Zdonek i Iwona Zdonek 4 z PolitechnikiŚląskiej zbadali transakcje aukcyjne dotyczącegłównie sektora B2C. Zwrócili uwagę na skutecznąkonstrukcję komunikatu aukcyjnego, który w wynikudziałania na odbiorcę nadawca zamierza zrealizować.Próbę przeprowadzili na wybranych czterech branżachaukcji internetowych i badali zaangażowanie kupującego,które wynika przede wszystkim z ponoszonego ryzykafinansowego oraz ryzyka społecznego. Wymienionyproblem rozwiązywali wyłącznie z punktu widzenianadawcy komunikatu, a więc sprzedawcy.Witold S. Chmielarz 5 z Uniwersytetu Warszawskiegoprzeprowadził analizę porównawczą serwisówaukcyjnych w Polsce. Scharakteryzował obecny stani rozwój polskojęzycznych aukcji internetowych. Badaniemobjął dziewięć najpopularniejszych serwisówaukcyjnych działających w Polsce w ówczesnym okresie.Posługiwał się danymi zawartymi w ich witrynachi funkcjonalnością samych witryn dla wyrażanycho nich opinii. W trakcie analizy porównawczej wziąłpod uwagę następujące kryteria: zakres działania,usługi dodatkowe, wizualizację, funkcjonalność ogółem,sposób płatności w serwisie i prowizję od sprzedaży.Oceny dokonał dobrany zespół ekspertów.Od dłuższego czasu badania nad reputacją uczestnikówaukcji prowadzi M. Morzy 6 z PolitechnikiPoznańskiej. W swoich pracach publikuje badanianad eksploracją danych na podstawie niewielkiejpróbki zakończonych aukcji. W ostatniej pracy razemz A. Wierzbickim zaprezentował miary reputacji pozytywneji negatywnej sprzedawców opartej o zmodyfikowanyalgorytm PageRank. Drugie środowiskoprowadzące badania uczciwości sprzedawców tworząJ. Piasecki i in. 7 z AGH w Krakowie. W swojej pracy,przy udziale studentów, prognozują <strong>zachowania</strong>sprzedawców w oparciu o zmiany częstości wystawianychprzedmiotów na aukcji oraz ceny tych przedmiotów.Przy pomocy metody drzew decyzyjnych sąw stanie z 85-proc. prawdopodobieństwem trafnościwskazać sprzedawców, którzy popełnią oszustwow trakcie transakcji. M. Morzy pracuje na zestawiedanych otrzymanych bezpośrednio od największegopolskiego serwisu aukcyjnego Allegro, natomiastPiasecki i in. pozyskali dane poprzez ekstrahowanieistotnych informacji prosto ze stron internetowychz aukcjami tego samego serwisu aukcyjnego.Podstawowe pojęciaDo podstawowych pojęć i definicji, które związanesą z transakcjami na aukcjach internetowych należą:kupujący, sprzedający, zawieszenie konta użytkownikai system komentarzy. Istotą systemu komentarzyjest oddanie go całkowicie w ręce użytkowników.Został stworzony jako platforma dla subiektywnychi suwerennych opinii na temat przebiegu całej transakcji.Serwis Allegro nie ponosi odpowiedzialnościza treść i jakość wystawianych komentarzy, za któreodpowiadają wyłącznie użytkownicy. Co ciekawe,użytkownicy Allegro nie są zobowiązani do wystawianiakomentarzy. Napisanie opinii o transakcji jestdobrowolne. Panuje jednak zwyczaj, że to kupującypowinien jako pierwszy wystawić komentarz. Doobowiązków kupującego należy w miarę szybkouregulowanie należności za wylicytowany przedmioti podanie swoich danych. Na tym kończy się udziałkupującego, ale należy podkreślić, że w żaden sposóbnie jest to regulowane, tylko zwyczajowo przyjęte.Natomiast sprzedający wymagają, aby kupujący jakopierwsi wystawiali komentarz (wymusza to większezadowolenie kupujących z wylicytowanego towaru).Uzasadniają to faktem, że komentarz od kupującegojest sygnałem o otrzymaniu towaru, dzięki temu mogąpotem wystawić swój. Jednak takie podejście jest nieprzekonujące,ponieważ jest wypaczeniem systemukomentarzy oraz pewną formą zabezpieczenia sięsprzedawców świadczących usługi na niskim poziomieprzed otrzymaniem komentarza neutralnego lubnegatywnego, bo zawsze mogą w odwecie wystawićpodobny 8 .Zgodnie z regulaminem Allegro, użytkownicy mająobecnie możliwość wyrażenia opinii na temat przebiegutransakcji. Nie ma mowy o przedmiocie transakcji.4D. Zdonek, I. Zdonek, Determinanty skutecznej aukcji internetowej produktów o dużym zaangażowaniu kupującego [w:]W. Chmielarz, T. Parys (red.), Zastosowanie systemów e-biznesu w gospodarce, Wyższa Szkoła Ekonomiczno-Informatyczna,Warszawa 2007, s. 123–135.5W. Chmielarz, Próba analizy porównawczej serwisów aukcji internetowych w Polsce [w:] Współczesne trendy w informatyceekonomicznej, „Roczniki Kolegium Analiz Ekonomicznych SGH” 2006, nr 16, s. 13–26.6M. Morzy, A. Wierzbicki, Eksploracja aukcji internetowych w poszukiwaniu pozytywnej i negatywnej reputacji sprzedawców[w:] T. Morzy, M. Gorawski, R. Wrembel (red.), Technologie Przetwarzania Danych, Wydawnictwo Politechniki Poznańskiej,Poznań 2007, s. 103–114.7J. Piasecki, W. Roczniak, A. Zygmunt, J. Koźlak, Analiza wzorców nielegalnych zachowań w aukcjach internetowych [w:]T. Morzy, M. Gorawski, R. Wrembel (red.), Technologie Przetwarzania Danych, Wydawnictwo Politechniki Poznańskiej,Poznań 2007, s. 231–242.8G. Myśliwiec, P. Garczyński, Trudna droga do odpowiedzialnego <strong>handlu</strong> w polskim internecie. Rozważania o etyce i standardachhandlowych na przykładzie pewnej aukcji internetowej, „e-<strong>mentor</strong>” 2007, nr 1(18), s. 67–69.kwiecień 2008 77


e-biznesRozwiązaniem wartym uwagi byłoby oddzielenieoceny jakości towaru od jakości obsługi. Użytkownikstaje przed dylematem, gdy sama transakcja odbyłasię wzorowo, a przedmiot nadaje się do kosza – lubodwrotnie. Otrzymując możliwość wyrażenia opiniizarówno o przebiegu transakcji, jak i o przedmiocie,system komentarzy stałby się pełniejszy, bardziejwiarygodny.Zawieszenie konta użytkownika jest na ogół konsekwencjąnaruszenia zasad, które obowiązują naAllegro. Konto może być zawieszone na czas określonylub nieokreślony. W trakcie trwania zawieszeniaużytkownik nie może korzystać z większości funkcjiserwisu, w tym składać ofert kupna i sprzedaży orazwystawiać komentarzy. W czasie gdy konto jest odłączone,istnieje dostęp jedynie do tych funkcji serwisu,które mogą pomóc sfinalizować transakcje do ofertzakończonych przed zawieszeniem i skontaktowaćsię z kontrahentami. Oznacza to, że data ostatniegologowania do serwisu nie jest równoznaczna z datązawieszenia konta. Tylko w sytuacji wyjątkowo poważnegonaruszenia zasad Allegro blokuje całkowiciemożliwość zalogowania się do serwisu, a w specjalnychprzypadkach ogranicza także dostęp z danegokomputera (numeru IP).Metodologia i zakres badańPrzyczynkiem do przeprowadzenia badania byłachęć wyodrębnienia z ogólnodostępnych danychprawidłowości, które mogłyby świadczyć o pewnychnegatywnych wzorcach zachowań. Ponadto zachętąbyło pozyskanie wszystkich wystawionych komentarzyi profili użytkowników serwisu Allegro, co przybliżałonas do osiągnięcia rzetelnych rezultatów opartych nadużej próbie.Autorzy pozyskali dane do badań poprzez zbudowanierobota sieciowego. Przeszukiwał on stronyinternetowe z danymi o wszystkich zarejestrowanychużytkownikach serwisu Allegro. Pierwsze wersje robotabyły przygotowane do pobierania i zapisywania całegokodu strony html na lokalne zasoby. Po pewnym czasieokazało się, że takie podejście jest niepraktyczne,ponieważ pobierane dane przekraczają możliwości dyskowewspółczesnych komputerów osobistych, a takżeserwerów dostępnych w jednostkach naukowych.Robot sieciowy został uaktualniony i z pobieranychdanych zapisywał do bazy tylko potrzebne informacje.Oprogramowanie zostało napisane w Perlu, którywspółpracował z bazą danych MySQL.Robot sieciowy w trakcie prac został uodpornionyna niezgodności wynikające ze standardów stron internetowychserwisu Allegro, który prezentuje danew sposób semistrukturalny. Kolejne uaktualnieniadotyczyły niestandardowych informacji znajdującychsię na stronach z danymi o użytkownikach. Należą donich również komentarze unieważnione. To bardzorzadko występująca sytuacja, zazwyczaj u najaktywniejszychużytkowników, którzy w ten sposób broniąsię przed nieuczciwie wystawionymi komentarzami.Drugą spotykaną sytuacją była, w początkowym etapiedziałalności serwisu, możliwość kilkukrotnegowystawienia komentarza do tej samej aukcji. Zazwyczajpierwszy wystawiony komentarz był negatywny,natomiast po wyjaśnieniu sytuacji uczestnik wystawiałdrugi, nowy komentarz. Robot sieciowy jednocześniezapisywałby do bazy podwójne informacje o jednejtransakcji. Sytuację rozwiązano poprzez branie poduwagę tylko jednego, ostatniego wystawionego komentarzado aukcji.Tak stworzony mechanizm otrzymuje pełną informacjęo wszystkich zrealizowanych transakcjachaukcyjnych oraz o ich uczestnikach. Pełne zebraniedanych trwało 9 dni i 3 godziny, kosztowała około510GB transferu i zebrała wszystkie komentarzeo zakończonych aukcjach od początku istnienia serwisudo marca 2008 roku. Badaniom zostały poddanenastępujące informacje o transakcjach na aukcjachinternetowych:Tabela 1. Statystyka zebranej kolekcji danychLiczba transakcji 112 498 829Komentarze pozytywne 111 169 681Komentarze neutralne 513 982Komentarze negatywne 815 166Całkowita liczba sprzedających 1 686 954Całkowita liczba kupujących 3 612 891Źródło: opracowanie własneWyniki badańRysunek 1. ilustruje liczbę transakcji zakończonychwystawieniem komentarza. Wraz z upływem czasuwidać wzrost liczby realizowanych transakcji. Dynamikatego wzrostu utrzymuje się na średnim poziomie109 proc. rocznie, przy czym w ostatnim roku byłoto tylko 49 proc. Wyniki pokazują rosnące znaczenierynku <strong>C2C</strong>. Na rysunku nie ma transakcji z lat2000–2001, których jest znikoma liczba. Grudzieńi marzec każdego roku cechują się silnym skokiemw górę, co związane jest ze wzmożonymi zakupamiświątecznymi.W trakcie empirycznej analizy danych autorzywykryli bardzo niepokojącą sytuację. Przy zawieszonychkontach użytkowników, z pierwszej dziesiątkinajgorszych sprzedawców, cały czas pojawiają siępozytywne komentarze. Chronologiczny numeraukcji ujawnia, że są to transakcje, które odbyły sięna kilka miesięcy do kilku lat przed zablokowaniemkonta sprzedawcy. Prawdopodobnie istotna częśćkomentarzy jest wystawiana przez uczestników posiadającychfałszywe tożsamości i posługujących się nimido manipulowania opinią sprzedawców. Przy kontachużytkowników, którzy nie są zawieszeni przez serwis,a posiadają ogromną liczbę przeprowadzonych transakcji,spora część komentarzy jest również wystawianado aukcji, które odbyły się w okresie od kilku miesięcydo kilku lat wstecz. Rysunek 2. przedstawia liczbę78 e-<strong>mentor</strong> nr 2 (24)


<strong>Ocena</strong> <strong>zachowania</strong> użytkowników <strong>platformy</strong> <strong>handlu</strong> <strong>C2C</strong>...Rysunek 1. Dzienna liczba transakcji w latach 2002–2007Źródło: opracowanie własnewystawionych komentarzy do aukcji z co najmniejsześciomiesięcznym opóźnieniem od rzeczywistegokońca transakcji. Takich komentarzy jest ponad 1,5proc. łącznej liczby transakcji. Niepokojący jest fakt,że zachowanie to dotyczy sprzedających z największymwolumenem sprzedaży.Rysunek 2. Liczba transakcji, do których komentarz jest opóźniony co najmniej o sześć miesięcyŹródło: opracowanie własnekwiecień 2008 79


e-biznesRysunek 3. Dzienna liczba rejestracji w latach 2000-2007Źródło: opracowanie własneRysunek 3. przedstawia dynamikę przyrostuużytkowników serwisu Allegro wraz serwisami zagranicznymiw Bułgarii, Czechach, Rosji, Rumunii,Słowacji, na Ukrainie i Węgrzech (należących doAllegro). Zaobserwowano stałą tendencję wzrostową,osiągającą od początku 2008 roku przyrost o średniejwartości 7921 użytkowników dziennie. Co ciekawe,na wykresie widać, że liczba nowo rejestrowanychużytkowników posiada minima lokalne pod koniecgrudnia oraz przez cały lipiec każdego roku. Pobra-Rysunek 4. Aktywność użytkowników z podziałem na pełnione role w kolejnych latachŹródło: opracowanie własne80 e-<strong>mentor</strong> nr 2 (24)


<strong>Ocena</strong> <strong>zachowania</strong> użytkowników <strong>platformy</strong> <strong>handlu</strong> <strong>C2C</strong>...Rysunek 5. Data ostatniego zalogowania się użytkownika do serwisu (ciemniejszy obszar dotyczy użytkowników z zawieszonymkontem)Źródło: opracowanie własneno informacje o 10 054 530 kontach użytkowników.12 proc. wszystkich kont jest zawieszonych, natomiast26 proc. kont nigdy nie było używanych.Rysunek 4. pokazuje dynamikę aktywności użytkownikówserwisu z podziałem na pełnione funkcje,czyli na sprzedających i kupujących. Na wykresie znajdujesię łączna liczba osób biorących udział w transakcjachw rocznym przekroju. Z każdym jednak rokiemzwiększa się liczba kontrahentów biorących udziałw transakcjach.Rysunek 5. pokazuje ostatnią datę logowania dosystemu 9 wszystkich użytkowników Allegro do końcapaździernika 2007 roku, uwzględniając użytkownikówz zawieszonymi kontami. Dotyczy to tylko tych,którzy kiedykolwiek byli aktywni na Allegro, czylico najmniej raz zalogowali się do serwisu po założeniukonta. Od początku do 10 marca br. z Allegroaktywnie korzystało 3 546 640 użytkowników. Z danychna wykresie wykluczono dwie daty, w którychserwis Allegro dokonywał strategicznych decyzjirozwojowych. Dotyczy to zmiany rosyjskiej nazwyswojego odpowiednika z Aukro.ru na Motolok.ru,w ten dzień przestano monitorować ponad 700 tys.rosyjskich użytkowników oraz wycofanie się z rynkuholenderskiego, gdzie z serwisu korzystało ponad120 tys. użytkowników. Na wykresie niższa warstwareprezentuje osoby z zawieszonymi kontami (średnio13,7 proc. użytkowników).Wnioski i podsumowanieZaufanie, jakim kupujący obdarzają sprzedających,oparte jest na prostym porównaniu liczby opinii negatywnychdo pozytywnych, z pominięciem wartościtransakcji oraz czynników psychologiczno-społecznych.System nie przekazuje jakościowych informacjio zakończonej transakcji, takich jak czas oczekiwaniana towar, jakość wymiany informacji ze sprzedającym,czy też zgodność towaru z opisem. Nie zwraca onteż uwagi na komentarze niewystawione w obawieprzed reakcją odwetową, czy komentarze naśladującewiększość wystawionych danemu użytkownikowi(tym częściej występujące im bardziej wyrazista jestreputacja sprzedającego i im mniej doświadczony jestkupujący). W kwestii zaufania użytkownika do witrynysytuacja wygląda znacznie prościej, najważniejsze dlaportalu jest zapewnienie bezpieczeństwa wymiany informacjipomiędzy użytkownikami, poprzez zastosowaniesystemu uwierzytelniania, szyfrowania danych,zapewnienia środków bezpiecznej płatności.Analiza poszczególnych parametrów w określonychprzedziałach czasowych pozwala ukazać, w jakisposób zmienia się wolumen transakcji oraz sposób<strong>zachowania</strong> sprzedawców. Ponadto wskazuje naobecność w serwisie grupy komentarzy podejrzanychtzn. nadmiernie opóźnionych do daty zawarciatransakcji oraz dużej liczby komentarzy pozytywnych,9Oznacza to konta nieużywane od danej daty (miesiąca).kwiecień 2008 81


e-biznespojawiających się na koncie użytkownika długo pojego zawieszeniu.Istotne jest, że cały proces analizy i wnioskowaniazostał przeprowadzony w oparciu o dane największejliczby transakcji i użytkowników ich realizujących, jakado tej pory brała udział od początku istnienia serwisuAllegro. Analiza wzorców zachowań użytkownikówpowinna pozwolić lepiej dobrać strategię interakcjipomiędzy użytkownikami w trakcie realizacji transakcjina rynku <strong>C2C</strong> oraz zmodyfikować system komentarzyi ich ocen, a tym samym zwiększyć poziomzaufania do internetowych transakcji aukcyjnych.BibliografiaJ. Banasikowska, I. Woźniak, Transakcje elektronicznei czynniki wpływające na ich rozwój [w:] H. Sroka, T. Porębska-Miąc(red.), Systemy Wspomagania Organizacji,Akademia Ekonomiczna, Katowice 2003.W. Chmielarz, Próba analizy porównawczej serwisówaukcji internetowych w Polsce [w:] Współczesne trendyw informatyce ekonomicznej, „Roczniki Kolegium AnalizEkonomicznych SGH” 2006, nr 16, s. 13–26.R. Milewski, Podstawy Ekonomii, PWN, Warszawa1999.M. Morzy, A. Wierzbicki, Eksploracja aukcji internetowychw poszukiwaniu pozytywnej i negatywnej reputacjisprzedawców, [w:] T. Morzy, M. Gorawski, R. Wrembel(red.), Technologie Przetwarzania Danych, WydawnictwoPolitechniki Poznańskiej, Poznań 2007.G. Myśliwiec, P. Garczyński, Trudna droga do odpowiedzialnego<strong>handlu</strong> w polskim internecie. Rozważania o etycei standardach handlowych na przykładzie pewnej aukcjiinternetowej, „e-<strong>mentor</strong>” 2007, nr 1(18).J. Piasecki, W. Roczniak, A. Zygmunt, J. Koźlak, Analizawzorców nielegalnych zachowań w aukcjach internetowych,[w:] T. Morzy, M. Gorawski, R. Wrembel (red.), TechnologiePrzetwarzania Danych, Wydawnictwo PolitechnikiPoznańskiej, Poznań 2007.M. Waszczyk, Zaufanie w detalicznych transakcjachinternetowych, „Prakseologia” 2003, nr 143.D. Zdonek, I. Zdonek, Determinanty skutecznej aukcji internetowejproduktów o dużym zaangażowaniu kupującego,[w:] W. Chmielarz, T. Parys (red.), Zastosowanie systemówe-biznesu w gospodarce, Wyższa Szkoła Ekonomiczno--Informatyczna, Warszawa 2007.Artur Strzelecki pracuje jako asystent w KatedrzeInformatyki Akademii Ekonomicznej w Katowicach. Odniedawna zajmuje się problematyką promocji w internecie.Jego zainteresowania dotyczą tematyki marketinguw wyszukiwarkach internetowych, reklamy w internecieoraz biznesu elektronicznego.Tomasz Bacewicz i Marcin Ściański są studentamiIII roku studiów magisterskich Akademii Ekonomicznejw Katowicach na kierunku Informatyka Ekonomiczna.Współtworzą Koło Naukowe Informatyki „Informaticus”.W ich sferze zainteresowań znajduje się informatykai biznes elektroniczny.PolecamyWEBIST 2008 International Conferenceon Web Information Systemsand Technologies4–7 maja 2008 r., Funchal, Madera, PortugaliaWEBIST to międzynarodowa konferencja, któraodbędzie się w Portugalii w dniach 4–7 maja 2008roku. Konferencja przeznaczona jest dla naukowcówi inżynierów oraz praktyków zajmujących się tymizagadnieniami. Główne bloki tematyczne konferencjipoświęconej technologiom i informatycznym systemominternetowym to:! technologie internetowe,! internetowe aplikacje i interfejsy użytkownika,! e-społeczności,! e-biznes,! e-administracja,! e-edukacja.Więcej informacji na: http://www.webist.org/.IT w Bankowości, Gigaton23 kwietnia 2008 r.Airport Hotel Okęcie, WarszawaBankowość elektroniczna i internetowa staje sięjednym z kluczowych elementów prowadzeniadziałalności e-biznesowej. Konferencje poświęconetej tematyce powinny zainteresować nie tylko przedsiębiorców,ale również każdą osobę funkcjonującąw dzisiejszym e-świecie.Organizatorzy konferencji, przeznaczonej przedewszystkim dla ekspertów i praktyków z tej dziedziny,planują następujące bloki tematyczne:! Bezpieczeństwo Transakcji Elektronicznych,! CRM,! Ciekawe Projekty i Wdrożenia,! Elektroniczny Obieg Informacji,! Ochrona i Bezpieczeństwo Danych,! Karty Płatnicze,! Contact Center/Call Center.Natomiast wśród szczegółowych zagadnień poruszanychna konferencji znajdziemy:! Outsourcing usług bankowych - możliwości i ograniczenia,! Elektroniczny Segregator-Elektroniczny Dokument,czyli szybki i sprawny dostęp do informacji,! Bezpieczeństwo informacji bankowej, a społecznośćWeb 2.0,! Automatyzacja zadań w procesach kredytowychw Bankowości,! Poprawa bezpieczeństwa informacji poprzezzarządzanie tożsamością użytkownika i kontrolęuprawnień.Więcej informacji na:http://bankowosc.sdcenter.pl/prt/view/it-w-bankowosci.82 e-<strong>mentor</strong> nr 2 (24)


Rola i znaczenie Web2.0 w funkcjonowaniuprzedsiębiorstwaZbigniew E. ZielińskiW ostatnim czasie internet stał się istotnym narzędziemwspomagającym zarządzanie przedsiębiorstwem, czynnikiemkreowania wizerunku organizacji oraz elementemrealizacji procesów gospodarczych. Takie działania, jaknawiązywanie kontaktów firmy z klientem, prezentacjai realizowanie zamówień czy budowanie wizerunku firmysą obecnie nieodzownymi technikami nowej ekonomii,wspieranymi podstawowym medium jakim jest internet.Wdrożenie nowych rozwiązań opartych o rozwiązaniaWeb 2.0 to sposób na stworzenie systemu zarządzaniawiedzą w przedsiębiorstwie. Celem opracowania jestprzedstawienie rozwiązań Web 2.0 i ich znaczenia w funkcjonowaniuprzedsiębiorstwa.Dwukierunkowość oraz interaktywność przekazuinformacji jest jedną z najważniejszych zalet internetu.Dzięki temu firmy mogą kierować swój przekazdo indywidualnego klienta, sprawniej komunikowaćsię z otoczeniem oraz docierać do określonychgrup docelowych. Podstawowe narzędzia internetu– katalogi, wyszukiwarki, serwisy FTP, grupy dyskusyjneoraz poczta elektroniczna stały się technikamikształtującymi sieciowy wizerunek przedsiębiorstwa.Dodatkowe działania oparte o to interaktywne medium,takie jak reklama i marketing internetowy,sieciowe public relations oraz dynamiczna witrynainternetowa mogą tworzyć pozytywny wizerunekprzedsiębiorstwa. Powyższe elementy działań marketingowychw firmie wpisują się w kanon rozwiązańtechnologicznych opartych o usługi internetu, którenazywane są w dzisiejszej nomenklaturze Web 1.0.Najprostszym tego typu rozwiązaniem, dosyć częstostosowanym, może być statyczne przedstawienieinformacji teleadresowych o firmie (tzw. wizytówka)z opisem działalności, wskazaniem misji, prezentacjąkluczowych pracowników, kącikiem prasowym bądźaktualnościami (opis aktualnych wydarzeń z życiafirmy). Serwis firmowy zawiera informacje na tematdziałalności przedsiębiorstwa, oferty, dokonańoraz danych kontaktowych 1 . Zwykle zarządzanietreścią witryny opiera się na administratorze strony– webmasterze. Obecna tendencja w tworzeniuserwisów internetowych firm zmierza w kierunkumożliwości ingerencji w ich zawartość (ocenianietreści zawartej w portalu, czy też możliwości wstawianiakomentarzy) przez odwiedzających stronęużytkowników. Zarządzanie serwisem zaś wspieranejest przez systemy klasy CMS (Content ManagementSystem), co umożliwia włączenie w bezpośredniproces budowy wielu pracowników firmy.Technologie Web 2.0 w firmowej witrynieprzedsiębiorstwaWbrew panującej opinii, Web 2.0 to nie tylkonarzędzia społecznościowe (social software), jak wiki,blogi, RSS; serwisy społecznościowe (social networking),jak Youtube.com, Flickr.com, SlideShare.net;czy zastosowane technologie, takie jak – mash-up(integracja API), AJAX, metadane. Oparte na Web 2.0narzędzia adaptowane są do celów biznesowych,co umożliwia znaczne zwiększenie wydajności pracowników,takich działów jak marketing, sprzedaż,komunikacja, prace badawczo-rozwojowe i kadry.Za pomocą zestawów narzędzi do społecznegoprzetwarzania informacji pracownicy mogą wspólnietworzyć aplikacje biznesowe, wykorzystujące doraźniepowstające treści, zewnętrzne usługi internetowei zdalny dostęp do danych przedsiębiorstwa – a towszystko ułatwia wykonywanie zadań biznesowych 2 .W przypadku przedsiębiorstw wykorzystującychtechnologię Web 2.0 powstało nowe określenie – firma2.0, odnoszące się do współczesnych serwisówwspółtworzonych przez użytkowników. Firma 2.0to o wiele więcej niż blogi, wiki czy strony internetowe,które każdy z pracowników może tworzyć1K. Olszówka, Witryna WWW w procesie kształtowania wizerunku firmy [w:] C.M. Olszak, E. Ziemba (red.), Strategiei modele gospodarki elektronicznej, Wydawnictwo Naukowe PWN, Warszawa 2007, s. 77.2I. Ganowska, SOA – kluczowy warunek efektywnego stosowania technologii Web 2.0, Wrocław 2007, http://www.bankier.pl/wiadomosc/SOA-kluczowy-warunek-efektywnego-stosowania-technologii-Web-2-0-1652656.html, [22.03.2008].kwiecień 2008 83


e-biznesi edytować w wewnętrznym firmowym intranecie 3 .Aby utrzymać przewagę konkurencyjną współczesne,przedsiębiorstwo musi korzystać w pełni z innowacjiopartych o Web 2.0, w wymiarze architektury usług,aplikacji oraz samych usług społecznościowych.Powinno zatem wykorzystywać:! architekturę zorientowaną na usługi – SOA(Service Oriented Architecture), umożliwiającąbardziej ścisłą korelację działalności biznesoweji obsługi informatycznej, która prowadzi dowiększej elastyczności i sprawności działania,opierającej się na technologiach:– mash-up – która odnosi się do aplikacjihybrydowych łączących funkcjonalnościi pozwalających na swoiste „wymieszaniedanych” z różnych źródeł, dając nową jakośćinformacji (np. serwis WWW przedsiębiorstwazawierający interaktywną mapę GoogleMaps z prezentacją graficzną lokalizacjifirmy). Mash-up funkcjonuje w oparciu o architekturyprogramistyczne, takie jak SOAP(Simple Object Access Protocol) czy RPC (RemoteProcedure Call).– News Feeds – redagowane przez użytkowników,takie jak serwis internetowy Digg,w którym wiadomości, nowości, linki do ciekawychstron czy blogów dodawane są przezzarejestrowanych użytkowników. Każdy takiwpis podlega ocenie innych użytkowników,którzy mają możliwość głosowania na niego,w ten sposób awansując go w punktacji setekinnych wiadomości. Za pomocą systemupunktacji najlepsze wpisy ukazują się nastronie głównej serwisu 4 ;– RSS (Really Simple Syndication), Atom – czyliformat danych używany do dostarczaniaużytkownikom często aktualizowanychdanych, umieszczanych na blogach, serwisachinformacyjnych – opartych na grupiejęzyków znacznikowych, bazujących zwyklena XML;– web services – oparte o język XML, stanowiąpodstawowe bloki do budowania aplikacjii przyczyniają się do rozpowszechnieniatechnologii przetwarzania rozproszonego(są komponentami programowymi, niezależnymiod <strong>platformy</strong> i implementacji,dostarczają określonej funkcjonalności).Otwarte standardy oraz skupienie uwagi namożliwości komunikacji oraz współpracyużytkowników i aplikacji przyczyniły się dopowstania środowiska, w którym usługi XMLWeb Service stają się platformą dla integracjiaplikacji 5 ;! aplikacje oparte o model RIA (Rich Internet Application),oferujące pracę w dynamicznie generowanym,jednoekranowym interfejsie (one-screen--application), eliminują uciążliwości rozwiązańtechnologii statycznej HTML (np. wprowadzaniedanych w kolejnych formularzach wymagającewielokrotnego przeładowania stron) 6 .RIA funkcjonuje w oparciu o standardy Flash,.NET, ASP, Java, PHP, J2EE, CFM, XML, AJAX,Adobe Flex, Silverlight. Wachlarz możliwościużycia RIA obejmuje wiele zastosowań – odprezentacji produktów, aplikacji biznesowych,systemów zarządzania zasobami, aż po stronytrójwymiarowe, wspomagające prezentacjęmultimedialną treścią. Głównym celem tegomodelu jest tworzenie aplikacji uruchamianychw przeglądarkach internetowych, tak abyinterfejs użytkownika wyglądał tak samo, bezwzględu na użyte środowisko;! serwisy społecznościowe (social web), czyli współczesnyinternet, który bardziej niż kiedykolwiekłączy ludzi, firmy i koncepcje, wykorzystując dotego odpowiednie narzędzia (social software).Serwisy te umożliwiają przede wszystkim wypowiadaniesię konsumentów w formie rekomendacji,recenzji, zgłaszanie opinii, komentarzy,prowadzenie dialogu z klientami, ocenianieproduktów, kształtowanie rankingów ich popularności,tworzenie baz wiedzy, czy badań online.Należą do nich mechanizmy, takie jak:– blogi służące, w wymiarze firmowym, dopromowania działalności przez specjalistóworaz liderów opinii, dobrze znających danątematykę i kreujących w ten sposób wizerunekprzedsiębiorstwa. Z racji swojej interaktywności,blogi pozwalają w łatwy sposóbtworzyć społeczności, a także zmniejszaćdystans między przedsiębiorstwem a odbiorcą,pokazywać zhumanizowane obliczefirmy, czego konwencja klasycznej stronyinternetowej przeważnie nie umożliwia 7 .– tagi będące znakami bądź słowami kluczowymiprzypisanymi do określonego fragmentuinformacji (tekstu, pliku multimedialnego),pozwalające na klasyfikowanie fragmentówtekstu 8 . Dzięki nim można odszukać szybcieji wydajniej odpowiednie materiały w bazachdanych serwisów firmowych (np. informacjeo nowym produkcie). W wymiarze marketingowymfirmy mogą analizować preferencje3K. Urbanowicz, Firma 2.0, czyli o rewolucji jaka czeka nasze przedsiębiorstwa [online], Warszawa 2007, http://mediacafepl.blogspot.com/2007/08/firma-20-czyli-o-rewolucji-jaka-czeka.html, [22.03.2008].4http://pl.wikipedia.org/wiki/Digg, [22.03.2008].5R. Wolter, Usługi XML Web Services, 2001, http://download.microsoft.com/download/d/5/d/d5db5577-2caa-4b85-b868-9f9e3fcbcaeb/Uslugi%20XML%20Web%20Services_podstawy.doc, [22.03.2008].6http://pl.wikipedia.org/wiki/Rich_Internet_Application, [22.03.2008].7G. Mazurek, Blogi i wirtualne społeczności – wykorzystanie w marketingu, Wolters Kluwer, Kraków 2008, s. 21.8http://pl.wikipedia.org/wiki/Tag_(znacznik), [22.03.2008].84 e-<strong>mentor</strong> nr 2 (24)


Rola i znaczenie Web 2.0 w funkcjonowaniu przedsiębiorstwakonsumentów, często odwiedzane i polecanewitryny innym użytkownikom 9 ;– wiki, które są serwisami niewymagającymiod użytkownika autoryzacji, a służącymido tworzenia portali, które można nie tylkooglądać, ale tworzyć, edytować i zmieniaćbezpośrednio. Serwisy takie pozwalająna tworzenie społeczności edukacyjnych,wymieniających się wiedzą i informacjami.Mogą działać bardzo prężnie, ponieważzdobywana dzięki nim wiedza ma częstocharakter unikatowy, a przy tym pochodziczęsto od ekspertów w danej dziedzinie,co gwarantuje dużą wartość merytorycznągromadzonego materiału 10 ;– podcast jako forma internetowej publikacjidźwiękowej, nadawanej w odcinkach z zastosowaniemtechnologii RSS. Podcasty sączęsto wykorzystywane przez firmy jakodźwiękowa forma reklamowa. Najczęstszymstosowanym rodzajem reklamy jest sponsorowanieprzez reklamodawców płatnychplików podcast. Dzięki zamieszczeniuwewnątrz pliku spotu reklamowego, konsumentotrzymuje treści dźwiękowe, którew normalnych warunkach są płatne. Rosnącapopularność takiej formy reklamy jest związanaz popularnością samych podcastóworaz przenośnych urządzeń odtwarzających(mp3, telefonów komórkowych). Podcasty sątakże postrzegane jako alternatywa reklamyradiowej 11 .We współczesnym internecie firma osiąga sukces,tworząc wspólnoty użytkowników, którzy mając poczucieprzynależności do niej, są chętni inwestowaćswój czas i wzbogacać firmową witrynę. Przez tozmienia się paradygmat serwisów WWW, które z mediumsłużącego do publikacji wiedzy i informacji o firmiestają się platformą służącą do współpracy klientaz przedsiębiorstwem. W przypadku serwisów firmowychopartych o technologię Web 2.0 działa takżeefekt sieci, dzięki któremu powstaje wartość dodanaprzez klienta i zwiększa się przez to promocja portalu(co przyciąga też nowych klientów). Nowe dane,materiały zamieszczone przez aktywnych klientówzwiększają także współczynnik konwersji, pozwalającna promowanie serwisu przez samych klientów, którzywidzą zysk w zwiększaniu jego popularności 12 .Czy firmy stosując Web 2.0,stają się Firmą 2.0?Od momentu powstania internetu pojawiały sięnowe trendy w komunikacji i publikacji treści, którew przedsiębiorstwach znajdowały zastosowanie z dużymopóźnieniem. Działo się tak z wielu powodów– początkowo postrzegania sieci jako miejsca dlanaukowców, braku zaufania do nowych technologii,czy wręcz nie dostrzegania internetu jako rynku. Aktualniesytuacja wygląda podobnie z zastosowaniemWeb 2.0.Wyniki europejskiego sondażu dotyczącego postrzeganiai wdrożeń technologii Web 2.0 w przedsiębiorstwach,przeprowadzonego przez BEA Systems,dowodzą, że większość europejskich firm i instytucjinie inwestuje w technologie Web 2.0, ponieważkadra zarządzająca nie rozumie, na czym polegająpłynące z nich korzyści biznesowe 13 . W wyniku sondażuprzeprowadzonego ostatnio na próbie ponad320 respondentów w siedmiu krajach europejskichodkryto, że większość firm i instytucji (57 proc.) potrzebujeinformacji o tym, jakie korzyści biznesowemożna odnieść dzięki wdrożeniu takich technologii 14 .Pomimo tego, iż Web 2.0 łączy postęp technologicznyi społeczną idee dzielenia się informacją, menedżerowiewielu firm obawiają się stracić kontrolę nadinformacją o przedsiębiorstwie.W USA i Europie głównymi wrogami blogowaniaprzez pracowników są zazwyczaj komórki firmy odpowiedzialneza public relations. Pracownicy PR chcąmieć pełną kontrolę nad komunikacją, jaka wychodziz firmy na zewnątrz. Niechęć korporacji do blogowaniaprzez pracowników wynika także z obawy przedewentualnym ujawnieniem tajemnic firmy przeznieostrożnego pracownika 15 .Przedsiębiorstwa obawiają się problemów związanychz kontrolą i sposobem zarządzaniem wiedzą(23 proc. europejskich firm i instytucji) oraz o bezpieczeństwosieci (20 proc.) w przypadku wdrożeniatechnologii Web 2.0. Z drugiej strony menedżerowiepostrzegają Web 2.0 jako czynnik usprawniającykontakt z klientami (41 proc. respondentów) i oczekująrozpowszechniania wiedzy o korzyściach biznesowych,jakie mogą przynieść przedsiębiorstwomi instytucjom takie technologie.Powstanie i funkcjonowanie przedsiębiorstwa opartegona Web 2.0 wiąże się ze stworzeniem idealnego9R. Miller, ABC: An Introduction to Enterprise 2.0, 2007, http://www.cio.com/article/123550/ABC_An_Introduction_to_Enterprise_._/1, [28.03.2008].10G. Mazurek, Blogi i wirtualne społeczności – wykorzystanie w marketingu, Wolters Kluwer, Kraków 2008, s. 116.11D. Kaznowski, Nowy marketing w internecie, Difin, Warszawa 2007, s. 145.12http://www.clever-age.com.pl/?q=web_2_0_nieuchronna_rewolucja, [22.03.2008].13D. Milsom, Lack of Understanding of the Business Benefits Undermining Investment in Web 2.0 Technologies for the Enterprise,Londyn 2007, http://uk.bea.com/news/2007/070828_mashup.jsp, [23.03.2008].14I. Ganowska, Brak zrozumienia korzyści biznesowych płynących z technologii Web 2.0 przyczyną niewielkich inwestycji w tejdziedzinie, Warszawa 2007, http://www.firmapr.com.pl/_ip/bea/2007/08/070806_BrakZrozumieniaKorzysciBiznesowychPlynacychzTechnologiiWeb_2.0.doc, [23.03.2008].15D. Kaznowski, Nowy marketing w internecie, Difin, Warszawa 2007, s. 57.kwiecień 2008 85


e-biznessystemu zarządzania wiedzą, która w ogromnejmierze jest wiedzą niejawną, osadzoną w kontekściedoświadczeń pracowników, z trudem poddającą siętransferowi. Problemem może być stworzenie bazydoświadczeń zebranych w trakcie realizowanychprojektów i upublicznienie ich, a także odpowiednieprzygotowanie technologii komunikacji w przypadkukontaktów na poziomie pracownik – klient. Ma na towpływ także koszt, jaki musi ponieść firma, by móczastosować odpowiednie narzędzia i technologiew procesie zakupu, budowy i utrzymania systemówFirmy 2.0, które raczej nie zarobią na siebie reklamami16 .Z drugiej strony organizacje dostrzegają corazwiększy wpływ technologii informacyjnych nadziałalność przedsiębiorstw. Ponadto zdają sobiesprawę, iż IT stymuluje zapotrzebowanie na rozwiązaniaWeb 2.0, które łączą działające już systemy,automatyzują procesy biznesowe i eliminują kosztyzwiązane z tradycyjnymi technologiami integracji,odgrywając jednocześnie rolę katalizatora dla SOA.Tendencja ta została zauważona podczas badaniaprzeprowadzonego w 11 krajach Europy z udziałem330 respondentów przez BEA Systems, które wykazało,że 55 proc. przedsiębiorstw uważa architekturęSOA za kluczowy warunek efektywnego stosowaniatechnologii Web 2.0 17 . Respondenci wskazali, iżnajpopularniejszą technologią, która będzie stosowanaprzez najbliższy okres, w ramach strategiiWeb 2.0 w przedsiębiorstwach, są usługi sieciowe(57 proc.), technologie współpracy (32 proc.) orazblogi (27 proc.). Badanie wykazało wzrost znaczeniaspołecznych narzędzi – blogów, serwisów wiki, siecispołecznych i aplikacji hybrydowych, coraz częściejadaptowanych do celów biznesowych. Mówi o tymM. Percival, starszy specjalista ds. technologii naregion EMEA w firmie BEA Systems: [...] architekturaSOA powinna zwiększać przewagę firmy nad konkurencją,umożliwiając działowi informatyki szybsze tworzeniewartości w oparciu o bardziej prężną architekturę. Przetwarzaniespołeczne w przedsiębiorstwie pozwala użytkownikomzwiększyć własną produktywność i efektywniejwykonywać codzienną pracę 18 .Dodatkowym czynnikiem stymulującym wdrażanietechnologii Web 2.0 w przedsiębiorstwach możebyć wynik badania preferencji użytkowników siecidotyczący postrzegania i roli społeczności internetowych,przeprowadzony przez Megapanel PBI/Gemius.Wskazuje on na wzrost zainteresowania serwisamiokreślanymi mianem Web 2.0 wśród użytkownikówsieci, którzy świadomie zakładają (i odwiedzają)coraz więcej blogów, portali wiki, stają się aktywnymidziennikarzami społecznymi czy uczestnikamiserwisów z możliwością publikacji własnych zdjęć,tekstów lub opinii.Rysunek 1. Odsetek użytkowników internetu korzystającychz serwisów społecznościowychŹródło: D. Kaznowski, Nowy marketing w internecie, Difin,Warszawa 2007, s. 64Przedsiębiorstwa migrując w kierunku Web 2.0,będą musiały odpowiedzieć sobie na pytania i rozwiązaćproblemy 19 :! Jak udostępniając rozwiązania oparte o usługispołecznościowe, rozwiązać problem bezpieczeństwafunkcjonowania firmy? Technologiapozwala użytkownikowi nie tylko na przesyłaniainformacji czy modyfikacji istniejącychtekstów w serwisach społecznościowych, aletakże budowanie aplikacji z przygotowanegoi udostępnionego przez przedsiębiorstwo autorskiegoAPI;! Problem szumu informacyjnego nabiera szczególnegoznaczenia w przypadku serwisów społecznościowych(blogosfera), gdzie każdy możew prosty sposób zamieścić wpis i go skomentować.Firmy boją się współpracy z – tak zwanymi– ekspertami, którzy mogliby przyczynić się doobniżenia rangi wartości serwisu;! Web 2.0 decentralizuje zasoby firmowe, przezco przedsiębiorstwo traci kontrolę nad zawartościąserwisu i przekazem do klienta, cow połączeniu ze złą wolą współpracujących(zewnętrznych) użytkowników portalu możebyć dla firmy problemem związanym z jej wizerunkiem.16D. Konowrocka, Firma 2.0... nie tak szybko, Warszawa 2008, http://www.idg.pl/news/139527.html, [23.03.2008].17D. Milsom, European Organizations Believe Service-Oriented Architecture Is Key Enabler to Effective Use of Web 2.0 Technologies,Barcelona 2007, http://uk.bea.com/news/2007/071003_survey-european-organizations-web-2.jsp, [23.03.2008].18http://www.firmapr.com.pl/_ip/bea/2007/09/070903_SOAEfektywnieWspieraWeb2.0.DOC, [23.03.2008].19R. Miller, ABC: An Introduction to Enterprise 2.0, 2007, http://www.cio.com/article/123550/ABC_An_Introduction_to_Enterprise_._/1, [28.03.2008].86 e-<strong>mentor</strong> nr 2 (24)


Rola i znaczenie Web 2.0 w funkcjonowaniu przedsiębiorstwaPodsumowanieCisco, IBM, Reebok, Dell, Mercedes Toyota – to tylkoniektóre z kilkudziesięciu marek, które zainwestowaływ jeden z najsłynniejszych serwisów Web 2.0 – SecondLife, będący hybrydą komunikatora, wieloosobowejgry komputerowej, czy serwisu społecznościowego.Przedsiębiorstwa te dostrzegły, że zarejestrowało się9 milionów graczy, z czego około 1,5 miliona byłoaktywnych w ciągu ostatnich 60 dni. Jest to grupaosób, która grając, wydaje także pieniądze – wirtualnelinden dolary kupowane uprzednio za realną gotówkę(według szacunkowych danych dostępnych na stronieinternetowej Second Life, przeciętnie w ciągu dniadokonywane są transakcje na sumę rzędu 400–500tysięcy dolarów amerykańskich). To rozwiązanie, wykorzystującearchitekturę Web 2.0, pokazuje siłę innowacjitechnologicznej – łączy w sobie zupełnie nowepodejście do marketingu i promocji w internecie.Z drugiej strony przedsiębiorcy inwestujący w Web2.0 zdają sobie sprawę z tego, iż oddając kontrolę internautomw tworzeniu treści, mogą narazić funkcjonowanie<strong>platformy</strong> webowej na złośliwe ataki czy błędnewpisy. Wikipedia, która w zamierzeniu jest otwartąencyklopedią, musiała dodać atrybut nofollow dowszystkich wyjściowych odnośników, uniemożliwiającdziałalność spammerom. Natomiast firma antywirusowaSophos poinformowała w listopadzie 2006 roku, żeWikipedia jest wykorzystywana do rozprzestrzenianiazłośliwego oprogramowania za sprawą umieszczanychtam odnośników. Oceniając ten przykład, możnazauważyć, iż największy problemem, jaki mają przedsobą firmy rozwijające własne aplikacje internetowejest zaufanie do użytkownika oraz zapewnienie muwłaściwego poziomu odbioru treści.BibliografiaD. Kaznowski, Nowy marketing w internecie, Difin,Warszawa 2007.G. Mazurek, Blogi i wirtualne społeczności – wykorzystaniew marketingu, Wolters Kluwer, Kraków 2008.K. Olszówka, Witryna WWW w procesie kształtowaniawizerunku firmy, [w:] C.M. Olszak, E. Ziemba (red.), Strategiei modele gospodarki elektronicznej, PWN, Warszawa 2007.NetografiaI.Ganowska, SOA – kluczowy warunek efektywnegostosowania technologii Web 2.0, Wrocław 2007,http://www.bankier.pl/wiadomosc/SOA-kluczowy-warunek-efektywnego-stosowania-technologii-Web-2-0-1652656.html.I. Ganowska, Brak zrozumienia korzyści biznesowychpłynących z technologii Web 2.0 przyczyną niewielkichinwestycji w tej dziedzinie, Warszawa 2007,http://www.firmapr.com.pl/_ip/bea/2007/08/070806_BrakZrozumieniaKorzysciBiznesowychPlynacychzTechnologiiWeb_2.0.doc.D. Konowrocka, Firma 2.0... nie tak szybko, Warszawa2008, http://www.idg.pl/news/139527.html.D. Milsom, Lack of Understanding of the Business BenefitsUndermining Investment in Web 2.0 Technologies for theEnterprise, Londyn 2007, http://uk.bea.com/news/2007/070828_mashup.jsp.D. Milsom, European Organizations Believe Service-Oriented Architecture Is Key Enabler to Effective Use of Web2.0 Technologies, Barcelona 2007, http://uk.bea.com/news/2007/071003_survey-european-organizationsweb-2.jsp.R. Miller, ABC: An Introduction to Enterprise 2.0,2007, http://www.cio.com/article/123550/ABC_An_Introduction_to_Enterprise_._/1, [28.03.2008].K. Urbanowicz, Firma 2.0, czyli o rewolucji jakaczeka nasze przedsiębiorstwa, Warszawa 2007,http://mediacafepl.blogspot.com/2007/08/firma-20-czylio-rewolucji-jaka-czeka.html.R. Wolter, Usługi XML Web Services, 2001,http://download.microsoft.com/download/d/5/d/d5db5577-2caa-4b85-b868-9f9e3fcbcaeb/Uslugi%20XML%20Web%20Services_podstawy.doc.http://pl.wikipedia.org/wiki/Digg.http://pl.wikipedia.org/wiki/Rich_Internet_Application.http://pl.wikipedia.org/wiki/Tag_(znacznik).http://www.clever-age.com.pl/?q=web_2_0_nieuchronna_rewolucja.http://www.firmapr.com.pl/_ip/bea/2007/09/070903_SOAEfektywnieWspieraWeb2.0.DOC.Autor jest doktorem nauk ekonomicznych, adiunktem w Katedrze Informatyki Wyższej Szkoły Handlowej im.Bolesława Markowskiego w Kielcach. Od 8 lat zajmuje się problematyką edukacji na odległość oraz biznesemelektronicznym. Obecnie pracuje nad projektem e-learningowym Świętokrzyskie Centrum Edukacji na Odległość– SCENO, http://www.sceno.edu.pl.PolecamyeBiznesmeni.pl – Forum Polskiego e-BiznesueBiznesmeni.pl to forum dyskusyjne przeznaczone dla osób związanych z e-biznesem. Wydzielono na nim dyskusjetematyczne dotyczące spraw ogólnych, e-biznesu, e-marketingu, prawa. Na stronie można zamieścić swój pomysł,aby poddać go ogólnej dyskusji, dowiedzieć się, w co inwestować, znaleźć artykuły polecane przez użytkownikówi porozmawiać o możliwościach uzyskania funduszy unijnych. Popularne tematy to również: reklama, księgowość,pozycjonowanie stron www. Na forum zarejestrowało się już ponad tysiąc osób.Więcej informacji na: http://ebiznesmeni.pl/forumkwiecień 2008 87


e-edukacja na świecieValidating a Measurement Toolof Presence in Online Communitiesof InquiryKaren P. Swan, Jennifer C. Richardson, Philip Ice, D. Randy Garrison,Martha Cleveland-Innes, J. Ben ArbaughThis article examines work related to the developmentand validation of a measurement tool for the Communityof Inquiry (CoI) framework in online settings.The framework consists of three elements: socialpresence, teaching presence and cognitive presence,each of which is integral to the instrument. The 34item instrument, and thus framework, was testedafter being administered at four institutions in theSummer of 2007. The article also includes a discussionof implications for the future use of the CoI surveyand the CoI framework itself.IntroductionOnline learning models are increasingly presentin higher education. In 2006, 3.5 million, or almost20%, of US higher education students were takingat least one online course (Allen & Seaman, 2007).While researchers have been relatively successful inidentifying the properties of successful online learningenvironments (Aragon, 2003; Cleveland-Innes,Garrison & Kinsel, 2007), a more in-depth analysisrequires a theoretical framework that illuminates thecomplexities of online learning.One model that has gained a good deal of attentionis the Community of Inquiry (CoI) frameworkdeveloped by Garrison, Anderson and Archer (2000).Figure 1: Community of Inquiry FrameworkThe CoI framework is a process model that providesa comprehensive theoretical model that can informboth research on online learning and the practice ofonline instruction. It assumes that effective onlinelearning requires the development of a community(Rovai, 2002; Thompson & MacDonald, 2005; Shea,2006) that supports meaningful inquiry and deeplearning. Such development is not a trivial challengein the online environment.The CoI model views the online learning experienceas a function of the relationship betweenthree elements: social presence, teaching presenceand cognitive presence (see Figure 1). Social presencerefers to the degree to which learners feel sociallyand emotionally connected with others in an onlineenvironment; teaching presence is defined as thedesign, facilitation, and direction of cognitive andsocial processes for the realization of personallymeaningful and educationally worthwhile learningoutcomes; and cognitive presence describes the extentto which learners are able to construct and confirmmeaning through sustained reflection and discourse.The sections which immediately follow describe eachof these constructs in greater detail and summarizeresearch findings concerning their importance inonline courses.However, two issues have challenged researchutilizing the CoI framework. The first is the lack ofcommon measures in studies investigating the individualpresences, which makes generalizations acrossstudies difficult. The second issue is that few studiesexplore all three presences and, more importantly,interactions among them. The later sections of thisarticle describe efforts its authors are making to addressthese issues: namely, the development of a CoIsurvey instrument which measures all three presencesusing commonly agreed-upon indicators. The articleconcludes with a discussion of implications for thefuture use of the CoI survey and the CoI frameworkitself.Social Presence“Social presence”, the degree to which participantsin computer-mediated communication feelaffectively connected one to another, is clearly the88 e-<strong>mentor</strong> nr 2 (24)


Validating a Measurement Tool of Presence...longest researched of the three presences in theCommunity of Inquiry (CoI) framework. Indeed, socialpresence research predates the creation of theCoI model by two decades. It arose from a commonconcern among some Communications scholars thatcomputer-mediated communication might preventstudents from developing the sense of belonging withother students, instructors, programs of study andeducational institutions which social learning theories(Vygotsky, 1978) and immediacy research (Weiner &Mehrabian, 1968) suggest support learning. Researchby Gunawardena (1995) and Gunawardena and Zittle(1997) moved the definition of social presence from itsoriginal focus on the capacities of the media involvedto one that focused more on individual perceptions,and so the concept of “social presence” evolved to“the degree to which a person is perceived as ‘real’ inmediated communication” (Gunawardena and Zittle,1997, p 8).Social Presence and Student’s Learning. A number ofstudies followed which examined the perception ofinterpersonal connections with virtual others as an importantfactor in the success of online learning (Swan,2002; Tu, 2000), specifically student’s perceived or actuallearning. Richardson & Swan (2003) examined students’perceived social presence and its relationship totheir perceived learning and satisfaction with courseinstructors. They found all three variables highlycorrelated and a regression analysis showed that 42%of the variability in perceived learning was predictedby perceived social presence. Picciano (2002) investigatedperceived social presence, interactivity, andlearning among students enrolled in an online courseand found strong correlations among these variables.While he initially found no correlations between thesevariables and actual performance on tests or writtenassignments he discovered that by dividing studentsinto groups perceiving low, medium and high socialpresence there were significant differences; studentsin the high social presence group scored higher thanthe medium, and the medium group outscored thelow social presence group.Social Presence and the CoI Framework. It is thissense of “social presence” that Garrison, Andersonand Archer (2000) incorporated into the CoI model.Their research team (Rourke, Anderson, Garrison &Archer, 2001) looked for evidence of social presencein the transcripts of online discussion. They identifiedthree categories of social presence indicators basedon research on immediacy in face-to-face interactions(Weiner & Mehrabian, 1968) - affective responses,cohesive responses, and interactive responses – anddeveloped coding protocols using these indicators.Rourke et al. (2001) established the indicators asreliable in a pilot content analysis of two online classdiscussions, and documented the use of such indicatorsto project social presence in text-based onlinecommunication.Social Presence and Course Design. Noting the relationshipbetween perceived presence and success inonline courses, Tu (2000) linked the development ofsocial presence in online courses to course design.Based on elements of social learning theory, hedistinguished three dimensions of course designswhich influenced the development of social presence– social context, online communication, andinteractivity. Tu and McIsaac (2002) found somesupport for these dimensions of social presence ina factor analysis of student responses to an onlinesurvey concerned with computer-mediated communicationtools. They argued that these dimensionsshould be taken into consideration in the design ofonline courses.Similarly, Swan and Shih (2005) found some supportfor the impact of course design on perceptionsof social presence in a study they did on developmentof four online classes. They found that course (design)alone of seven variables (including instructor, class,age, gender, online experience, and time spent indiscussion) significantly affected perceived socialpresence. Their findings also show an overlap inperceptions of instructor and peer presence and indicatethat the perceived presence of instructors maybe a more influential factor in determining studentsatisfaction than the perceived presence of peers.Teaching PresenceGarrison, et. al. (2000) contend that while interactionsbetween participants are necessary in virtuallearning environments, interactions themselves arenot sufficient to ensure effective online learning.These types of interactions need to have clearlydefined parameters and be focused toward a specificdirection, hence the need for teaching presence. Anderson,Rourke, Garrison, and Archer (2001) originallyconceptualized teaching presence as having threecomponents: (1) instructional design and organization;(2) facilitating discourse (originally called “building understanding”);and (3) direct instruction. While recentempirical research may generate a debate regardingwhether teaching presence has two (Shea, 2006; Shea,Li, & Pickett, 2006) or three (Arbaugh & Hwang, 2006)components, the general conceptualization of teachingpresence has been supported by other research(Coppola, Hiltz, & Rotter, 2002; LaPointe & Gunawardena,2004; Stein, Wanstreet, Calvin, Overtoom, &Wheaton, 2005).Instructional (Course) Design and Organization. Anderson,et. al. (2001) describe the design and organizationaspect of teaching presence as the planningand design of the structure, process, interaction andevaluation aspects of the online course. Some of theactivities comprising this category of teaching presenceinclude re-creating Power Point presentationsand lecture notes onto the course site, developingaudio/video mini-lectures, providing personal insightsinto the course material, creating a desirable mix ofand a schedule for individual and group activities,and providing guidelines on how to use the mediumeffectively. These are particularly important activitiessince clear and consistent course structure supportingengaged instructors and dynamic discussionskwiecień 2008 89


e-edukacja na świeciehave been found to be the most Figure 2: Practical Inquiry Modelconsistent predictors of successfulonline courses (Swan, 2002; 2003).Of the three components of teachingpresence, this is the one mostlikely to be performed exclusivelyby the instructor.Facilitating Discourse. Anderson,et. al (2001) conceptualize facilitatingdiscourse as the means bywhich students are engaged ininteracting about and buildingupon the information provided inthe course instructional materials.This role includes sharing meaning,identifying areas of agreementand disagreement, and seekingto reach consensus and understanding.Therefore, facilitatingdiscourse requires the instructor toreview and comment upon studentcomments, raise questions andmake observations to move discussions in a desired Cognitive Presencedirection, keeping discussion moving efficiently, draw Cognitive presence may be the least researched andout inactive students, and limit the activity of dominatingposters when they become detrimental to the presence that goes to the heart of a community of in-understood of the three presences, yet it is cognitivelearning of the group (Anderson et al., 2001; Brower, quiry. Cognitive presence has its genesis in the work of2003; Coppola et al., 2002).John Dewey and scientific inquiry (1933). For Dewey,Direct Instruction. Anderson, et. al. (2001) contextualizeddirect instruction as the instructor experience. The development of the cognitive pre-inquiry was at the core of a worthwhile educationalprovision of intellectual and scholarly leadership sence construct by Garrison, et. al (2000) is groundedin part through the sharing of their subject matter in the critical thinking literature and operationalizedknowledge with the students. They also contend that by the Practical Inquiry model (Garrison, Anderson &a subject matter expert and not merely a facilitator Archer, 2000, 2001).must play this role because of the need to diagnose The Practical Inquiry Model. The Practical Inquirycomments for accurate understanding, injecting model is defined by two axes. The vertical axis reflectsthe integration of thought and action. Thissources of information, and directing discussions inuseful directions, scaffolding learner knowledge to also emphasizes the collaborative nature of cognitiveraise it to a new level.presence and the need for community. The integrationIn addition to the sharing of knowledge by a of discourse and reflection (i.e., public and privatecontent expert, direct instruction is concerned with worlds) is a key feature of this model. Although weindicators that assess the discourse and the efficacy have identified these as two distinct processes, inof the educational process. Instructor responsibilities practice this dimensions (i.e., discourse and reflection)are to facilitate reflection and discourse by presentingcontent, using various means of assessment and iterations. The horizontal axis represents the interfaceare most often indistinguishable and instantaneousfeedback. Explanatory feedback is crucial. This type of the deliberation and action axis. The extremes ofof communication must be perceived to have a high the horizontal axis are analysis and synthesis. Theselevel of social presence/instructor immediacy (Arbaugh,2001; Baker, 2004; Gorham, 1988; Richardson et. al, 2000).are the points of insight and understanding (Garrison,& Swan, 2003) to be effective. Instructors must have While the axes provide the necessary theoreticalboth content and pedagogical expertise to make links frame of this model, in practical terms the focus is onamong contributed ideas, diagnose misperceptions, the phases of the inquiry process (triggering event,and inject knowledge from textbooks, articles, and exploration, integration, and resolution). It is importantto keep in mind that this is a process model thatweb-based materials. The simultaneous roles of discussionfacilitator and content expert within teaching has been telescoped for the sake of parsimony. As apresence goes beyond early contentions which online result, in practice, there will always be a degree ofinstructors needed merely to transition from a role fuzziness at the cusps of the phases. However, thisof knowledge disseminator to interaction facilitator. generally is only an issue when attempting to codeTeaching presence contends that for online learning to transcripts for research purposes.be effective, instructors must play both roles (Arbaugh Phases of the Inquiry Process. The first phase is a triggeringevent or initiation of the inquiry through the & Hwang, 2006).formal90 e-<strong>mentor</strong> nr 2 (24)


Validating a Measurement Tool of Presence...presentation of a problem or a dilemma arising from aprevious inquiry. Part of this process is to clearly definethe problem or task. The second phase of practical inquiryis exploration. This is a crucial and time consumingprocess where students individually and collaborativelysearch for, and share, relevant material and ideas. Thethird phase, integration, is a reflective and convergentprocess where the focus is making connections andidentifying potential solutions. The final phase of theinquiry process is resolution or the identification andtesting of the most promising solution to the problemor dilemma (Garrison, et. al., 2001). In an educationalcontext, this is often done vicariously. However, it isimportant that resolutions are defended rationally orthrough application.One of the early challenges with this model wasunderstanding why students did not progress tothe integration and resolution phases (Garrison, et.al., 2001). Most of the discussion appeared at theexploration phase. More recently, there has emergedevidence that progression through the phases hasmore to do with teaching presence in the form ofdesigning tasks that require clear outcomes and thenfacilitating and directing online discussion to movetoward a resolution (Garrison & Arbaugh, 2007). Ifthe goal and demand is for resolution, students willachieve this state. In addition, a recent unpublishedstudy has found much higher frequencies of integration(Akyol & Garrison, 2008), suggesting that thismay well be due to the nature of the task as well asto the maturity of the students.Context of the StudyAs previously noted, one of the challenges inutilizing the CoI framework has been the lack ofcommon methodologies and measures. Thoughprevious studies have addressed each of the presencesand two have addressed the CoI as a whole(Garrison, Cleveland-Innes & Fung, 2004; Arbaugh,2007), a common instrument has previously notbeen adopted throughout the online learning researchcommunity. In December of 2006, the authorsand colleagues from two other institutions beganwork on creating such an instrument. Commonalitiesbetween items in previous instruments werereconciled and, where appropriate, new items createdto fully capture each of the presences (Arbaugh,Cleveland-Innes, Diaz, Garrison, Ice, Richardson,Shea & Swan, 2008). The resultant, 34 item instrumentwas administered at four institutions in theSummer of 2007.Participating institutions were located in the UnitedStates and Canada. Courses in which the surveyswere administered were in the areas of CurriculumTheory, Distance Education, Educational Leadership,Interdisciplinary Studies, a Master’s of Business Administrationcourse on Business Literature, TeacherEducation and Instructional Technology. Courses inwhich the survey was administered were at the Masterand Doctoral levels. 287 students volunteered tocomplete the survey, yielding a response rate of 43%,with per course response rates ranging from 6% to 93%.Participant ages ranged from 20 to 57. Data relatingto gender and ethnicity was not obtained.Though programmatic variations were present,courses at each of the institutions were designed anddelivered using the CoI as a conceptual and thematicbasis. In some instances this structure was prevalentin formalized training programs, while in others awarenessof the three presences informally guided bestpractice. From an instructional design perspective,such an approach translates into a recursive analysisof each of the three presences relative to desiredcourse objectives to insure optimal opportunities fortheir inclusion in subsequent design, development andimplementation; a process derivative of establishedgoal oriented design processes (Davidson-Shivers &Rasmussen, 2006; Gagne, Wager, Golas & Keller, 2004;Morrison, Ross & Kemp, 2006).In organizing instructional components, utilizationof this process produced learning units in which overarchingtopics were addressed through multi-levelquestioning that provided for a triggering event vis-a--vis the cognitive presence framework. To supplementonline components, print and physically distributableelectronic media (e.g CD-ROM) were required foreach course.Using guidelines provided through effective applicationof the instructional design and organizationcomponent of teaching presence students were thenengaged in threaded discussions. Participation inthese discussions was given varying weight in determiningstudents’ final grade from course to course(with a range of 15% - 60% of the final grade accountedfor by participation in threaded discussions), with afew courses in which threaded discussions were not agradable component. In some instances, students alsoengaged in synchronous conferencing to supplementthreaded discussions. Regardless of the weight givento participation in threaded discussions or supplementalactivities, they were considered integral parts ofeach learning unit, subsequent artifact developmentand concurrent learning outcomes.Though establishing meaningful threaded discussionshas long been considered essential for cognitivescaffolding in online courses (Bender, 2003; Dixon,Kuhlhorst & Reiff, 2006; Pallof & Pratt, 1999; Salmon,2002), application of the CoI expands the role of discussionforums to include the establishment of socialpresence through student-student interactions that fosteropen communication, subsequent group cohesionand what Green (1971) terms collaborative knowledgeconstruction. As an example, a large majority of thediscussion prompts in education courses followed agroup-constructivist socio-epistemological orientation,thus producing an environment in which it was expectedthat responses would be open-ended in nature andallow for relatively risk-free collaborative processes tooccur (Arbaugh & Benbunan-Fich, 2006; Phillips, Wells,Ice, Curtis & Kennedy, 2007). In the courses studied,this allowed students to move fluidly to the exploration,kwiecień 2008 91


e-edukacja na świecieintegration and resolution phases of cognitive presence.Where a group-objectivist orientation was appliedto discussions, the same degree of latitude deemedacceptable for initial responses, however, more focusedoutcomes were expected to emerge later in the laterstages of the discussion threads.While cognitive presence is initiated in this frameworkvia the posing of overarching questions (thetriggering event) subsequent events related to thesocial and cognitive presences schema’s are largelydependent upon adequate projection of teaching presence.Specifically, the ability to effectively facilitatediscourse and provide direct instruction appears tobe crucial in moving cognitive presence beyond theexploration phase (Garrison, 2007). As an example,in the exploration process it is common for studentsto have misconceptions or encounter areas in whichthey disagree with their peers. In these instances theinstructor’s expert input is required to help guidestudents toward understanding and resolve disagreementsthrough guided exploration.From a theoretical perspective, such actions are requiredto insure that the curriculum is one of richness,rigor and conversation based iteration (Doll, Fleener,Trueit & St. Julien, 2005). In the face-to-face classroom,similar processes have been highly successful throughcareful crafting of collaborative learning environments(Johnson & Johnson, 1998; Slavin, 1994) in whichstudent and teacher roles are quite similar to thosetheorized in the CoI. However, the increased reflectivityinherent in asynchronous threaded discussionsallows learners to engage the content and their peersat substantively higher cognitive level (Coppola, Hiltz& Rotter, 2004; Swan, Shea, Fredericksen, Pickett, Pelz& Maher, 2000).Instructors for courses surveyed in this studytried to create favorable conditions for the emergenceof optimal discussion based experiences in whichthe three presences could naturally overlap. This isconsistent with the requirements underpinning anonline community of inquiry. This process was notformulaic or prescriptive in nature; rather, from aninstructors’ perspective, it can be considered artfulapplication of grounded theory. The presentationof data that follows provides the findings of afactor analysis in which the tripartite theoreticalconstruct of the CoI framework was confirmed. Anarrative account of the methodology employed isalso provided.Method and ResultsOrdinal responses were scored using the scale(0=Strongly Disagree) to (4=Strongly Agree). Meanresponses for the 34 items ranged from 2.90 to 3.63,with a standard deviation range of 0.66 to 1.04.Collectively, Teaching Presence items yielded a meanscore of 3.34 (s.d. = 0.61). Social Presence items collectivelyyielded a mean score of 3.18 (s.d. = 0.65),and Cognitive Presence items yielded a mean score of3.31 (s.d. = 0.60).Based on the assumptions of the theoretical modeland previous exploratory work, the three presenceswere considered to be distinct but overlapping. Assuch, confirmatory factor analysis, using principalcomponent analysis with obliminal rotation was utilized.A default value =0, was specified in SPSS 15for Direct Obliminal rotation, to limit reasonably thelevel of correlation among the factors.The sample size (n=287) for this study is reasonablyadequate depending on the rule of thumb utilized.The study meets Kass & Tinley’s (1979) recommendationfor 5 to 10 participants per item and Comrey& Lee’s (1992) sample size measure which describes200 as Fair and 300 as Good. The Keyser-Meyer-Olkin(KMO) measure of sampling adequacy is 0.96, suggestingfactor analysis should yield distinct and reliablefactors given the data utilized.Inspection of the scree plot supported the threefactor construct predicted by the theoretical basis ofCoI and previous exploratory research. Specifically,the marked decrease in magnitude of the factors didnot support a framework consisting of more than theanticipated number of factors.Table 1 illustrates the 34 CoI items factor loadings,with the three factors highlighted for interpretability.These results reflect the Pattern Matrix generatedby the previously described principal componentanalysis. In support of this analysis, loadings forthe Structure Matrix differed slightly, however bothoutput matrices support the 3 factor model. Consistentwith the design of the instrument, items 1-13(Teaching Presence) loaded most heavily on Factor1. Items 14-22 (Social Presence) loaded most heavilyon Factor 2. Finally, items 23-34 (Cognitive Presence)loaded most heavily on Factor 3. Cronbach’s Alphayielded internal consistencies equal to 0.94 for TeachingPresence, 0.91 for Social Presence, and 0.95for Cognitive Presence.DiscussionFactor analysis demonstrates the clusteringof sub-elements within the model, verifying thetheoretical structure proposed by Garrison, et. al(2000). The objective of this research was to explicateall three presences and to test the validity andreliability of a measurement tool for the communityof inquiry framework. Creating reliable instrumentsis a critical step in the enhancement of research aroundthis model; without reliability, research resultsusing various measurement tools are not replicable,and replication is the foundation of scientific method.Reliability is estimated for this instrumentthrough internal consistency of correlation amongthe variables. Cronbach’s Alpha measures how well aset of variables (survey items in this case) measuresa single unidimensional construct. In this data set,Cronbach’s Alpha yielded numbers indicative of highinter-correlations leading to internal consistencies:0.94 for Teaching Presence, 0.91 for Social Presence,and 0.95 for Cognitive Presence. The instrument92 e-<strong>mentor</strong> nr 2 (24)


Validating a Measurement Tool of Presence...Table 1. Community of Inquiry Instrument and Factor LoadingsPattern Matrix(a)Component1 2 31. The instructor clearly communicated important course topics. 0.826 0.088 0.0672. The instructor clearly communicated important course goals. 0.877 –0.021 0.0463. The instructor provided clear instructions on how to participate in course learning activities. 0.592 0.246 –0.0354. The instructor clearly communicated important due dates/time frames for learning activities. 0.611 0.078 0.0405. The instructor was helpful in identifying areas of agreement and disagreement on coursetopics that helped me to learn.6. The instructor was helpful in guiding the class towards understanding course topics in a waythat helped me clarify my thinking.7. The instructor helped to keep course participants engaged and participating in productivedialogue.0.579 0.162 –0.1380.575 0.091 –0.2810.633 0.149 –0.1608. The instructor helped keep the course participants on task in a way that helped me to learn. 0.579 0.042 –0.2859. The instructor encouraged course participants to explore new concepts in this course. 0.523 0.099 –0.23310. Instructor actions reinforced the development of a sense of community among courseparticipants.11. The instructor helped to focus discussion on relevant issues in a way that helped me tolearn.12. The instructor provided feedback that helped me understand my strengths and weaknessesrelative to the course’s goals and objectives.0.569 0.174 –0.1760.425 0.146 –0.3740.649 –0.123 –0.20113. The instructor provided feedback in a timely fashion. 0.513 –0.025 –0.10314. Getting to know other course participants gave me a sense of belonging in the course. 0.050 0.619 –0.23315. I was able to form distinct impressions of some course participants. 0.172 0.473 0.01316. Online or web-based communication is an excellent medium for social interaction. –0.181 0.674 –0.22617. I felt comfortable conversing through the online medium. –0.039 0.814 0.01518. I felt comfortable participating in the course discussions. 0.109 0.788 0.00519. I felt comfortable interacting with other course participants. 0.286 0.701 0.03820. I felt comfortable disagreeing with other course participants while still maintaining a senseof trust.0.103 0.620 –0.03421. I felt that my point of view was acknowledged by other course participants. 0.319 0.556 0.02522. Online discussions help me to develop a sense of collaboration. 0.047 0.561 –0.34023. Problems posed increased my interest in course issues. –0.099 0.172 –0.78524. Course activities piqued my curiosity. 0.064 0.070 –0.71225. I felt motivated to explore content related questions. 0.082 –0.031 –0.77026. I utilized a variety of information sources to explore problems posed in this course. 0.078 –0.158 –0.75927. Brainstorming and finding relevant information helped me resolve content relatedquestions.–0.106 0.130 –0.79428. Online discussions were valuable in helping me appreciate different perspectives. –0.096 0.286 –0.69929. Combining new information helped me answer questions raised in course activities. 0.101 0.043 –0.71630. Learning activities helped me construct explanations/solutions. 0.128 0.030 –0.73231. Reflection on course content and discussions helped me understand fundamental conceptsin this class.0.008 0.237 –0.64032. I can describe ways to test and apply the knowledge created in this course. 0.239 –0.097 –0.61933. I have developed solutions to course problems that can be applied in practice. 0.147 0.026 –0.65334. I can apply the knowledge created in this course to my work or other non-class relatedactivities.0.171 –0.041 –0.687Rotation Method: Oblimin with Kaiser Normalization.a. Rotation converged in 12 interactions.kwiecień 2008 93


e-edukacja na świecieused in this study provides a reliable measure forthe existence of a community of inquiry in onlinelearning environments.In addition to confirming the theory presentedin the CoI framework, these items provide insightsinto the necessary practice-based requirements ofeach presence. As outlined earlier, sub-conceptswithin each presence concretize the activity thatinitiate the existence of presence for instructors andstudents. Students experience social presence to theextent that they participate in open communication,feel a sense of group cohesion and exhibit affectiveexpressions. Items deemed to operationalize opencommunication are, for example, as follows:I felt comfortable conversing through the onlinemedium.I felt comfortable participating in the coursediscussions.I felt comfortable interacting with other courseparticipants.It becomes the requirement, then, of instructionaldesigners and online instructors to foster opportunitiesfor students to feel comfortable conversing,participating and interacting online. Social presenceacts as an intervening variable, a necessary but notsufficient condition of a satisfying and effectiveonline experience.This effective online experience is guided in thesame way by cognitive presence. Developing waysto move students toward higher levels of cognitiveprocessing are a latent but central objective inmany higher education courses. Recent studies arecontributing to our understanding of instructionaldesign strategies to foster higher order thinking(Kanuka, Rourke & Laflamme, 2007; Schrire, 2006).Results of this study verify that cognitive presenceis composed of elements across the spectrum ofinquiry: triggering events, exploration, integrationand resolution.Teaching presence in the form of instructor actionsplays a critical role in bringing the CoI educationexperience together for the students (Aragon,2003; Garrison & Cleveland-Innes, 2005; Garrison& Arbaugh, 2007; Meyer, 2004). Validation of theitems describing design and organization, directinstruction and facilitation occurred in the analysisof a three factor solution. However, other analysessuggest additional components may be at work in teachingpresence. In addition, the role for students inteaching presence needs further exploration (Stein,Wanstreet, Glazer, Engle, Harris, Johnston, Simons& Trinko, 2007).ConclusionsResults of this factor analysis provide evidencethat, as currently defined and operationalized, anonline community of inquiry emerges out of social,cognitive and teaching presence. Student responsesto statements about his or her online experienceclustered around items as defined by the theory. Thiseffort resulted in a measurement tool of agreed uponand statistically validated items that operationalizesthe concepts in the CoI model. This measurement toolmay be used for continued explication of concepts inthe model. It may also be used for practical purposes,to guide design elements ahead of time, or to evaluatethe existence of an online community of inquiry onceimplemented.Of course, meaningful research begets more questions.For example, most studies of social presencehave noted the highly democratic nature of onlinediscussion (Harasim, 1990) and accordingly conceptualizedsocial presence as a single construct with anemphasis on perceptions of the presence of peers. Asnoted above, there is some indication that instructorpresence may be equally important (Swan & Shih,2005), yet occasionally overlapping with peer presence.While the social presence of instructors has beenconsidered in explorations of “teaching presence”(Anderson, et. al., 2000; Shea, Pickett & Pelz, 2003),it has not been isolated therein. In addition, whilemost studies of social presence implicitly locate itsdevelopment in online discussion, survey questionshave not explicitly addressed it in that context. Similarly,the question of whether social presence is reallya necessary precursor of cognitive presence also needsto be examined. Most researchers in this area agreethat it is, with the caveat that social presence must bedirected toward learning outcomes (Garrison, 2007).This has led to a revision of the original social presencecategories and indicators to reflect academic purposes(Garrison, Cleveland-Innes & Fung, 2004).In addition to further research on social presenceand other aspects of the model, expansion and applicationissues abound. The possibility of an expandedrole for emotional presence, beyond the influencefound in social presence is under review (Cleveland--Innes & Campbell, 2006). Consideration of sociallyrich technologies and the CoI, learner characteristicsand perceptions of social presence and investigationof the CoI framework and the “Net Generation“ are additionalresearch topics currently underway (Arbaugh,Cleveland-Innes, Diaz, Garrison, Ice, Richardson, Shea& Swan, 2007).References and information about the Authorsare available in the online version94 e-<strong>mentor</strong> nr 2 (24)


PODARUJ 1%SWOJEGO PODATKUNA RZECZ FUNDACJIPROMOCJI I AKREDYTACJIKIERUNKÓW EKONOMICZNYCHFundacja została powołana w 2000 roku przez Szkołę Główną Handlową w Warszawie, AkademieEkonomiczne w Katowicach, Poznaniu i Wrocławiu oraz Uniwersytet Ekonomiczny w Krakowie.Fundacja jako jedna z pierwszych uzyskała status organizacji pożytku publicznego.• Standardy kształcenia• Akredytacja, jakość kształcenia• Konkurs na najlepsze dysertacjedoktorskie Nowe trendy w naukachekonomicznych i zarządzaniu• Dwumiesięcznik e-<strong>mentor</strong>(współwydawca)• Liczne publikacje i konferencjeśrodowiskowe• Projekty e-learningowe - econet.ploraz kapital.edu.pl• Olimpiada Przedsiębiorczości• Konkurs dla gimnazjalistów GiMGAME• Liceum ogólnokształcące nr 81 SGHJak przekazać 1% podatku dla FundacjiWraz z tegorocznym rozliczeniem podatkowym została uproszona forma przekazywania 1%. Na ostatniejstronie formularza rozliczenia PIT-36 oraz PIT-37 znajduje się część nazwana „Wniosek o przekazanie 1%podatku należnego na rzecz organizacji pożytku publicznego”. Wystarczy wpisać pełną nazwę naszejorganizacji (FUNDACJA PROMOCJI I AKREDYTACJI KIERUNKÓW EKONOMICZNYCH), numer KRS (5496) orazwnioskowaną do przekazania kwotę.Dodatkowymi wyjaśnieniami dotyczącymi możliwości przekazania 1% podatku służy biuro Fundacji:nr tel. (22) 646 61 42, biuro@fundacja.edu.plwww.fundacja.edu.pl

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!