Badania na WNE UW w 2017 roku

19 lutego 2018

W 2017 roku pracownicy i doktoranci WNE UW prowadzili 67 projektów krajowych i międzynarodowych na łączną kwotę ponad 14 milionów złotych.
W roku 2017 pozyskano 28 nowych grantów na kwotę ponad 5,5 miliona złotych. WNE UW uzyskało 2017 roku w rozstrzygniętych projektach grantowych NCN współczynnik sukcesu na wysokim poziomie: 45%!

Lista pozyskanych grantów:

Komisja Europejska HORYZONT 2020

  • Engineroom - dr hab. Katarzyna Śledziewska, Eksploracje w Internecie nowej generacji, nowe możliwości badawcze, technologie i metody
  • SharOn - dr hab. Katarzyna Śledziewska, Wspieranie polskich MŚP w ekspansji na jednolitym rynku europejskim

Narodowe Centrum Nauki

  • BEETHOVEN (projekty polsko-niemieckie)
dr Katarzyna Metelska-Szaniawska, Ekonomia stosowania konstytucji

W ostatnich latach ekonomiści dostarczyli wielu dowodów potwierdzających znaczenie konstytucji obowiązujących w poszczególnych krajach dla funkcjonowania ich gospodarek. Zasadnicze powiązanie wynika tu z roli, jaką postanowienia konstytucji odgrywają dla ograniczania swobody działań władzy i skłaniania jej przedstawicieli do podejmowania decyzji zorientowanych na długookresowe cele prorozwojowe, a nie krótkookresowe interesy własne bądź partykularnych grup. Stwierdzano przy tym jednak, że zasadnicze znaczenie ma faktyczna implementacja konstytucji, a nie ich formalne postanowienia. Rodzą się więc istotne pytania, co powoduje, że powstają rozbieżności pomiędzy tekstem a rzeczywistością konstytucyjną (czyli co może wyjaśnić tzw. luki konstytucyjne de iure – de facto) oraz jakie są konsekwencje występowania tego zjawiska. W projekcie podejmujemy tę właśnie tematykę, oferując po raz pierwszy wszechstronne i systematyczne ujęcie ekonomiczne problemu respektowania konstytucji.

Projekt zakłada realizację badań w trzech zasadniczych krokach. Po pierwsze, by umożliwić jej pomiar, niezbędna jest konceptualizacja luki konstytucyjnej de iure – de facto. Obejmuje ona m.in. udzielenie odpowiedzi na takie pytania jak: Jakie są właściwe normy prawne i kto powinien je respektować? Po drugie, podejmujemy się wskazania determinantów luki pomiędzy konstytucjami de iure i de facto. Mogą nimi być cechy samych tych reguł, cechy aktów prawnych jakimi są konstytucje, jak również cechy krajów odnoszące się do ich uwarunkowań kulturowych, politycznych, czy społecznoekonomicznych. Różne zestawy czynników mogą przy tym mieć znaczenie dla różnych reguł konstytucyjnych. Po trzecie, wyjaśniamy konsekwencje występowania luk pomiędzy normami konstytucyjnymi de iure i ich implementacją de facto. Argumentujemy, że istnienie tych luk (i ich rozmiar) ma znaczenie nie tylko dla skuteczności norm konstytucyjnych, lecz także m.in. dla poziomu zaufania do władzy czy korupcji w sektorze publicznym.

Przedstawione badania mają swoje podstawy w interdyscyplinarnych nurtach ekonomii takich jak nowa ekonomia instytucjonalna i ekonomia polityczna. W części empirycznej wykorzystujemy natomiast narzędzia ekonometryczne pozwalające na analizę danych na poziomie państw, jak i (po raz pierwszy w ekonomii konstytucyjnej) eksperymenty umożliwiające badania indywidualnych zachowań w zakresie (nie)respektowania konstytucji.

Wiedza o przyczynach i konsekwencjach występowania rozbieżności pomiędzy tekstem konstytucji a jego implementacją stanowi nie tylko wartościowe uzupełnienie dotychczasowych badań ekonomicznych nad konstytucjami, ale ma także niebagatelne znaczenie dla praktyki. Pozwoli ona na projektowanie lepszych (tj. bardziej skutecznych) rozwiązań prawnych na poziomie konstytucyjnym; może także uświadamiać prawodawcom i decydentom politycznym o ograniczeniach planowanych reform konstytucyjnych.

Współpraca polsko-niemiecka przy projekcie pozwoli nie tylko na połączenie wiedzy i potencjału dwóch ważnych ośrodków badań nad ekonomią konstytucyjną, lecz także dostarczy unikalnej możliwości przeprowadzenia eksperymentów w Niemczech, Polsce i Egipcie (gdzie Uniwersytet w Kairze jest partnerem Uniwersytetu w Hamburgu) i porównanie percepcji konstytucji i problemu jej respektowania w krajach o istotnych różnicach w różnych aspektach od poziomu dochodów do doświadczeń historycznych i polityczno-ustrojowych.


  • SONATA BIS (powołanie nowego zespołu naukowego)
dr hab. Bartłomiej Rokicki, Modelowanie wpływu dużych projektów infrastrukturalnych na rozwój regionalny

Głównym celem projektu jest zbadanie wpływu dużych projektów infrastrukturalnych na rozwój regionalny. Chcemy również zbadać czy wielkość środków przeznaczonych na duże projekty jest adekwatna do rzeczywistych kosztów związanych z ich realizacją. Wyniki badania pozwolą pogłębić wiedzę w zakresie wpływu inwestycji publicznych na produktywność. Badania w tym zakresie zapoczątkowane pod koniec lat 80. ubiegłego wieku przez Aschauer nie dają jednoznacznej odpowiedzi na pytanie czy inwestycje publiczne mogą znacząco przyspieszyć wzrost gospodarczy. Większość badań przeprowadzona została na danych dla Stanów Zjednoczonych – część z nich pokazuje znaczący i pozytywny wpływ inwestycji publicznych (Aschauer), inne podają to w wątpliwość (np. Munnel czy Holtz- Eakin). W przypadku krajów europejskich Alvarez Pinilla et al. czy de la Fuente wykazują pozytywną korelację pomiędzy inwestycjami publicznymi i wzrostem gospodarczym. Jednakże wskazują też na występowanie związku pomiędzy poziomem rozwoju gospodarczego danego region i wpływem inwestycji infrastrukturalnych na jego wzrost. Podobne wyniki uzyskują Cieślik i Rokicki w badaniach poświęconych Polsce.

Warto zauważyć, że żadne z dostępnych badań nie dokonuje rozróżnienia na efekty projektów dużych i tych mniejszych. Tymczasem tylko w latach 2004-2015 w Polsce do realizacji przyjęto ponad 130 projektów o wartości ponad 100 mln euro każdy. Warto zatem zbadać czy tego typu projekty rzeczywiście pozytywnie wpływają na rozwój regionalny oraz czy ich budżety są adekwatne do kosztów, szczególnie biorąc pod uwagę krytykę formułowaną przez Flyvbjerga. Proponowane badanie porusza także aspekt metodologiczny istniejących badań – większość z nich opiera się na estymacji neoklasycznej funkcji produkcji. Tego typu podejście ma jednak wiele ograniczeń zarówno od strony teoretycznej, jak i ekonometrycznej. Dlatego też w badaniu wykorzystane zostaną różne podejścia metodologiczne takie jak model równowagi ogólnej, ekonometria przestrzenna czy metody aktuarialne.

Głównym powodem podjęcia proponowanej tematyki badawczej jest brak badań w literaturze przedmiotu, które uwzględniałyby specyfikę dużych projektów infrastrukturalnych. W konsekwencji widoczna jest luka, która może zostać po raz pierwszy przynajmniej częściowo zapełniona dzięki realizacji proponowanego badania.


  • OPUS (dla doświadczonych naukowców)
dr hab. Anna Bartczak, Ekonomia gospodarstw domowych w rodzinach trzypokoleniowych. Rola altruizmu wewnątrz gospodarstwa domowego w dystrybucji wspólnych zasobów na ochronę zdrowia

Zrozumienie międzypokoleniowych transferów w rodzinach stanowi kluczowy element przy planowaniu efektywnej polityki państwa dotyczącej opieki zdrowotnej, opieki socjalnej czy polityki edukacyjnej. Podczas gdy wiele badań ekonomicznych poświęconych jest badaniu alokacji zasobów w gospodarstwach dwupokoleniowych składających się z rodziców i dzieci, zadziwiająco niewiele uwagi poświęca się na analizę zachowań ekonomicznych w stosunku do najstarszego pokolenia (dziadków). Biorąc pod uwagę wzrastającą oczekiwaną długość życia w większości krajów europejskich, można przewidywać, że zagadnienie transferów w gospodarstwach domowych trzypokoleniowych będzie zyskiwać na znaczeniu.

Wiele ważnych badań empirycznych i teoretycznych pokazuje, że alokacja zasobów między rodzicami i dziećmi może być tłumaczona występowaniem zachowań altruistycznych wobec dzieci w kontekście dwupokoleniowym. W naszym projekcie chcielibyśmy odpowiedzieć na pytanie, w jaki sposób uwzględnienie trzeciej generacji (pokolenia dziadków) w modelu badania zachowań gospodarstwa domowego wpłynie na dystrybucję zasobów, zakładając, że zasoby te są dostarczane głównie przez średnie pracujące pokolenie. W szczególności chcielibyśmy sprawdzić, czy altruizm w postaci pośredniej i bezpośrednie reguły wzajemności są obecne przy podejmowaniu decyzji dotyczących alokacji zasobów w stosunku do najstarszego pokolenia. Dodatkowo chcielibyśmy zbadać, czy decyzje dotyczące dystrybucji zasobów w rodzinach trzypokoleniowych są mniej efektywne niż w dwupokoleniowych i w jakich warunkach alokacja wspólnych zasobów w rodzinach trzypokoleniowych odbywa się kosztem najstarszego pokolenia (dziadków) na rzecz dzieci. Kontekstem naszych badań będzie ochrona zdrowia.

W projekcie zamierzamy wykorzystać zarówno metodę eksperymentalną, jak i badanie wycenowe opierające się na deklarowanych preferencjach Wyborów Eksperymentalnych (z ang. Choice Experiments, CE). Badanie eksperymentalne byłoby przeprowadzone w Laboratorium Ekonomii Eksperymentalnej na Wydziale Nauk Ekonomicznych Uniwersytetu Warszawskiego a badanie wycenowe Wyborów Eksperymentalnych przez profesjonalny ośrodek badania opinii publicznej na próbie ogólnopolskiej. W badaniu eksperymentalnym chcielibyśmy odtworzyć zależności finansowe między członkami rodzin trzy- i dwupokoleniowych oraz poprzez zmiany potencjalnie istotnych czynników (taki jak np. dochód, rozłączne lub łączne podejmowanie decyzji) sprawdzić, w jaki sposób wpływają one na WTP dla poszczególnych członków rodzin. Nasza próba pozwoliłaby także na analizę różnic w wycenie między rodzinami trzy- i dwupokoleniowymi. Zaletą badania eksperymentalnego jest to, iż wybory dokonywane przez jednostki nie są hipotetyczne. Ich decyzje mają rzeczywiste konsekwencje finansowe (wypłaty z eksperymentu).

Zaletą drugiego badania – badania wycenowego CE jest możliwość oszacowania WTP za poprawę ochrony zdrowia poszczególnych członków gospodarstwa domowego i wyznaczenie krańcowej stopy substytucji między wyceną ochrony zdrowia osób ze średniego pokolenia o wyceną ochrony zdrowia ich dzieci oraz rodziców (najstarszego pokolenia). Metoda Wyborów Eksperymentalnych opiera się na preferencjach deklarowanych. Podstawy teoretyczne tej metody stanowi teoria wartości charakterystyk/atrybutów konsumowanych dóbr Lancastera, teoria losowej użyteczności oraz teoria eksperymentalnego projektowania. W projekcie podejmiemy próbę stworzenia modelu teoretycznego dotyczącego podziału zasobów w rodzinach trzypokoleniowych z uwzględnieniem wewnątrzrodzinnego altruizmu.

Proponowane badanie byłoby pierwszym, w którym analizowano by wpływ włączenia dodatkowego (najstarszego) pokolenia na dystrybucję zasobów w gospodarstwach domowych przy użyciu metod eksperymentalnych i metod wyceny nierynkowej. Warunki polskie stwarzają unikalną szansę przeprowadzenia takiego badania, gdyż udział gospodarstw trzypokoleniowych w Polsce jest relatywnie duży i wynosi 10%. Dla porównania w Wielkiej Brytanii gospodarstwa trzypokoleniowe stanowią tylko 2%. Wyniki naszego badania mogą stanowić wskazówkę dla decydentów przy planowaniu polityki dotyczącej poprawy sytuacji osób starszych szczególnie w kontekście ochrony zdrowia.


dr hab. Michał Brzeziński, Nierówność majątkowa w Europie Środkowo-Wschodnie

Głównym celem projektu jest wszechstronne zbadanie problemu nierówności majątkowej w Polsce i innych krajach postsocjalistycznych naszego regionu. Nierówności ekonomiczne są zwykle mierzone w kategoriach dochodów lub wydatków gospodarstw domowych. Dotychczas stosunkowo mniej uwagi poświęcano nierówności majątkowej, głównie ze względu na fakt, iż zdefiniowanie i mierzenie majątków jest trudniejsze, niż badanie dochodów czy wydatków.

Majątki gospodarstw domowych w literaturze ekonomicznej są zwykle badane jako majątki netto, czyli różnica pomiędzy wartością aktywów (finansowych i rzeczowych) a wartością zadłużenia gospodarstwa domowego. Badania naukowe pokazują, że majątek ma kluczowe znaczenie jako czynnik silnie wpływający na indywidualny dobrobyt ekonomiczny i jego rozkład w społeczeństwie. Majątek rodziców jest pozytywnie skorelowany z lepszymi wynikami edukacyjnymi i kognitywnymi dzieci, posiadaniem przez dzieci nieruchomości i lepszymi wynikami dzieci na rynku pracy. Fakt, iż rozkład majątku charakteryzuje się w praktyce zawsze dużo większą nierównością, niż rozkład dochodów, oznacza, że nierówności majątkowe skutkują silnie nierównymi szansami ekonomicznymi dla osób pochodzących z mniej uprzywilejowanych majątkowo grup. Ostatnie badania pokazują również, że istnieje negatywny wpływ niektórych typów nierówności majątkowej na wzrost gospodarczy.

Choć istnieje dużo literatury naukowej na temat nierówności majątkowych w krajach zachodnich, to zagadnienie to pozostaje mało zbadane dla krajów rozwijających się i średniozamożnych jak kraje postsocjalistyczne naszego regionu. Niniejszy projekt wypełni lukę istniejącą w literaturze naukowej w następujący sposób. Po pierwsze, nasza dotychczasowa wiedza na temat poziomu nierówności majątkowych w Polsce i w innych krajach regionu jest niepełna. Opublikowane oszacowania poziomu tej nierówności nie uwzględniają majątków najbogatszych mieszkańców krajów naszego regionu. Problem ten zostanie rozwiązany w niniejszym projekcie poprzez obliczenie skorygowanych miar nierówności majątkowej uwzględniających również osoby najbogatsze. Po drugie, niewiele wiadomo na temat majątków najbogatszych Polaków – tempa ich wzrostu w czasie, struktury, czynników je determinujących. Badanie poświęcone tym zagadnieniom również jest celem projektu. Podobnie nie wiadomo dotychczas, dlaczego nierówności majątkowe różnią się od nierówności majątkowych w innych krajach regionu, a także od tych istniejących w bogatych krajach zachodnich. Ten problem także będzie badany w ramach niniejszego projektu.

Dodatkowym celem projektu jest rozstrzygnięcie sporu naukowego dotyczącego wysokości nierówności dochodowych w Polsce i stopnia w jakim wzrosły one w okresie transformacji gospodarczej po 1989 r. Dotychczasowe badania oparte na danych ankietowych sugerują, że nierówności dochodowe wzrosły w Polsce w okresie 1992-2005 o około 20%, a następnie nieco obniżyły się. Z kolei dane ze źródeł podatkowych wskazują na wzrost nierówności w zakresie od 40 do 50%. Proponowany projekt doprowadzi do uzgodnienia tych rozbieżnych rezultatów poprzez stworzenie zbioru danych o dochodach, który łączy informacje ankietowe i podatkowe. Umożliwi to obliczenie bardziej dokładnych niż dotychczasowe oszacowań miar nierówności dochodowej i sformułowanie bardziej precyzyjnej odpowiedzi na pytanie w jakim stopniu transformacja gospodarcza w Polsce zwiększała nierówności dochodowe i podnosiła ogólny dobrobyt ekonomiczny, jak również dobrobyt ekonomiczny wśród osób biednych i bogatych.


dr hab. Mikołaj Czajkowski, prof. UW, Poprawność motywacyjna w badaniach preferencji deklarowanych

Dobra publiczne (takie jak parki narodowe, czy autostrady) to dobra, z których może korzystać nieograniczona liczba osób i nikogo nie da się z tego wykluczyć. Problem z dobrami publicznymi jest taki, że wolny rynek nie jest mechanizmem, który zapewnia dostarczanie ich efektywnej ilości. Wiele osób liczy, że inni „zrzucą się” na dobro publiczne, przez co sami będą mogli korzystać z nich za darmo. W związku z tym jest to jeden z powszechnie akceptowanych przypadków, w których to rząd musi pełnić rolę dostarczyciela tych dóbr. Jednak jaką ilość powinien dostarczać?

Nauki ekonomiczne wypracowały kilka metod, które pozwalają określać wartość dóbr nierynkowych (czyli takich, które nie są kupowane i sprzedawane na rynkach – jak np. dobra publiczne). Najbardziej wszechstronną z tych metod jest tzw. metoda wyceny warunkowej. Opiera się ona na preferencjach deklarowanych, co oznacza, że dane na temat tego, ile konsumenci byliby gotowi zapłacić za jakieś dobro (np. program dostarczenia nowego dobra publicznego) pozyskiwane są z odpowiednio zaprojektowanych ankiet. W takich ankietach przedstawiany jest scenariusz dostarczenia nowego dobra (jego charakterystyki oraz koszty na osobę łączące się z jego dostarczeniem), a respondenci proszeni są o jego ocenę – np. wybór najlepszego programu z zaprezentowanych zgodnie ze swoimi preferencjami. Zebrane w ten sposób dane pozwalają na modelowanie preferencji konsumentów, tym samym umożliwiając określenie ich gotowości do zapłaty za każdy z programów, a nawet (w niektórych wariantach metody) za poszczególne ich komponenty.

Projekt dotyczy poprawności motywacyjnej pytań wykorzystywanych w ankietach wyceny warunkowej. Poprawne motywacyjnie pytania to pytania, które są skonstruowane w taki sposób, że odpowiadającemu na nie respondentowi ‘opłaca się’ odpowiadać zgodnie z prawdą, tj. zgodnie ze swoimi prawdziwymi preferencjami. Jeśli kieruje się swoim interesem, to w poprawnych motywacyjnie pytaniach nie będzie mu się opłacało zaniżać ani zawyżać swojej gotowości do zapłaty za proponowany program. W literaturze sformułowano kilka teoretycznych warunków koniecznych do zachowania poprawności motywacyjnej ankiet posługujących się metodą wyboru warunkowego. Ich praktyczne znaczenie nie zostało jak dotąd należycie zbadane empirycznie. Dostrzegamy tu lukę, którą realizacja naszego projektu pozwoli wypełnić.

W szczególności, celem proponowanego projektu jest próba odpowiedzi na pytania:

  1. Czy zachowanie zaproponowanych teoretycznie warunków poprawności motywacyjnej jest faktycznie konieczne dla uzyskania obrazu prawdziwych preferencji, a jeśli tak, to czy jest wystarczające?
  2. Czy któryś z tych warunków (konsekwencyjny charakter, liczba sytuacji wyboru zawartych w pojedynczej ankiecie, liczba alternatyw do wyboru) odgrywa wiodącą rolę?
  3. W jaki sposób uwzględnić stopień spełnienia w/w warunków w modelowaniu ekonometrycznym, aby potencjalnie skorygować niedostateczny stopień ich spełnienia?
  4. Jaka jest skala zafałszowania wyników spowodowanego niespełnieniem poszczególnych warunków w typowym badaniu wyceny warunkowej?

Przeprowadzone badania umożliwią weryfikację znaczenia zaproponowanych w literaturze teoretycznej warunków poprawności motywacyjnej dla badań metodą wyceny warunkowej. Ponadto będziemy w stanie ocenić praktyczne ograniczenia wynikające z „trade-offu” między poprawnością motywacyjną, a efektywnością statystyczną, gdyż ankiety zawierające więcej niż jedną sytuację wyboru lub więcej niż dwie alternatywy na respondenta ujawniają większą ilość informacji na temat jego preferencji, jednocześnie zmniejszając zasadniczo koszty realizacji badania. Pomimo rosnącego zainteresowania tą tematyką, związanego z fundamentalnym znaczeniem metody wyceny warunkowej dla analizy kosztów i korzyści projektów inwestycyjnych, regulacji czy dostarczania dóbr publicznych, w istniejącej literaturze naukowej brak jest kompleksowej analizy empirycznej, rozwiązań ekonometrycznych, a powszechna praktyka konstruowania badań wyceny znacznie odbiega od postulowanych warunków poprawności motywacyjnej. Projekt pozwoli uzupełnić tę lukę, a jego wyniki znajdą się w zainteresowaniu najlepszych czasopism naukowych poświęconych ekonomii dóbr publicznych, środowiska, zdrowia czy transportu. Wyniki badań mają szansę być przełomowe dla obecnej praktyki i stanu wiedzy.

Na ogólniejszym poziomie, projekt dostarczy cennych wskazówek metodologicznych dla poprawnego konstruowania ankiet służących do poznawania preferencji konsumentów. Otrzymane rezultaty pozwolą lepiej konstruowane takie badania, a tym samym, pozwolą na precyzyjniejszy pomiar wartości dóbr nierynkowych.


dr hab. Jan Fałkowski, Instytucje nieformalne, konkurencyjność wyborów i wyniki gospodarcze

Proponowany projekt służyć ma udzieleniu przynajmniej częściowej odpowiedzi na pytanie o wpływ, jaki instytucje nieformalne (rozumiane jako powszechnie obowiązujące normy społeczne, utarte wzorce postępowania) mogą wywierać na uczestnictwo w wyborach, poziom konkurencyjności sceny politycznej oraz na obserwowane wyniki gospodarcze, w tym na rozkład zasobów gospodarczych. Planowane badanie przyglądać się będzie tym zależnościom na przykładzie Polski lokalnej w okresie transformacji ustrojowej. Analiza znaczenia instytucji nieformalnych skupiać się będzie przede wszystkim na procesach sekularyzacji, przejawiających się między innymi zmniejszonym uczestnictwem społeczeństwa w życiu religijnym. Biorąc pod uwagę fakt, iż bardzo wiele norm społecznych czy wzorców zachowań wywodzi się z religii, zmiany postaw religijnych, które obserwowaliśmy w okresie transformacji mogą posłużyć za przybliżenie różnic istniejących pomiędzy gminami gdy chodzi o obowiązujące tam instytucje nieformalne.

W trakcie prowadzonych prac weryfikacji poddane zostaną następujące hipotezy badawcze: a) w gminach, gdzie w okresie transformacji proces sekularyzacji był silniejszy, uczestnictwo obywateli w wyborach lokalnych jest obecnie mniejsze; b) w gminach, gdzie w okresie transformacji proces sekularyzacji był silniejszy, konkurencja polityczna jest obecnie mniejsza; c) w gminach, gdzie w okresie transformacji proces sekularyzacji był silniejszy, rozkład zasobów gospodarczych jest obecnie bardziej nierówny.

Prowadzone badanie osadzone będzie przede wszystkim w teoriach ekonomii politycznej. Teorie te pozwalają z jednej strony twierdzić, iż instytucje nieformalne oraz zachodzące w nich zmiany mogą w istotnym stopniu przekładać się na zachowania wyborcze obywateli, sposób sprawowania władzy i rozkład zasobów politycznych. Z drugiej strony natomiast, teorie te skłaniają do budowania powiązań pomiędzy instytucjami nieformalnymi a wynikami gospodarczymi oraz podziałem zasobów, które są kluczowe z punktu widzenia prowadzenia procesów produkcyjnych. W celu lepszego zrozumienia przyczyn oraz potencjalnych konsekwencji procesu sekularyzacji, proponowany projekt czerpać będzie również z dorobku socjologów i politologów.

Postulowane w hipotezach badawczych zależności badane będą za pomocą analizy ekonometrycznej. W tym celu wykorzystane zostaną przede wszystkim techniki panelowe. Dane obrazujące zmiany w postawach religijnych Polaków pochodzić będą z Instytutu Statystyki Kościoła Katolickiego. Dane ilustrujące zachowania wyborcze obywateli oraz stopień konkurencyjności lokalnej sceny politycznej pochodzić będą z Państwowej Komisji Wyborczej. Dane na temat rozmaitych charakterystyk społeczno-gospodarczych na poziomie gminy pochodzić będą z Głównego Urzędu Statystycznego (GUS). Rozkład zasobów gospodarczych odnosić się będzie do rozkładu ziemi rolniczej a mierzony będzie na podstawie danych publikowanych przez Ministerstwo Rolnictwa i Rozwoju Wsi oraz GUS. Proponowany projekt wpisuje się w szerszy nurt badań poświęconych znaczeniu instytucji dla wyników gospodarczych. Koncentrując się na jak dotąd stosunkowo słabo rozpoznanej kwestii powiązań pomiędzy instytucjami nieformalnymi, uczestnictwem w wyborach, konkurencyjnością sceny politycznej i wynikami gospodarczymi planowane badanie będzie starało się uzupełnić dotychczasową dyskusję o nowe wątki, które jak dotąd nie były przedmiotem szerszego zainteresowania. W ten sposób planowane badanie powinno przyczynić się do lepszego rozumienia złożonych interakcji między nieformalnymi regułami kształtującymi zachowania jednostek a światem polityki i ewentualnych konsekwencji, jakie interakcje te mogą mieć dla wyników gospodarczych. Proponowany projekt wypełni również, przynajmniej w części, istotną lukę w polskiej literaturze ekonomicznej, która wpływowi instytucji nieformalnych, a zwłaszcza wpływowi postaw religijnych, na wyniki gospodarcze i rozkład władzy politycznej nie poświęcała jak dotąd zbyt wiele miejsca.


dr hab. Łukasz Goczek, Import szoków zewnętrznych w gospodarce otwartej

Żyjemy w coraz bardziej zglobalizowanym świecie - prawie każdy następny rok przynosi gwałtowny wzrostu przepływów handlowych i finansowych, które zwiększają wzajemne zależności pomiędzy gospodarkami. W pośredni sposób te współzależności zabierają część władzy gospodarczej z rąk poszczególnych decydentów politycznych na całym świecie na rzecz importowanych szoków zewnętrznych. Warunki te mają asymetryczny wpływ na działanie różnych gospodarek, ponieważ aktywa finansowe i zasoby kapitałowe nie są rozłożone równomiernie na całym świecie. Podczas gdy oczywistość tych stwierdzeń powoduje, że mogą się one wydawać trywialne, konsekwencje tego stanu asymetrycznego bynajmniej takie nie są - zwłaszcza dla małych otwartych gospodarek.

Od początku międzynarodowego rynku finansowego te mniejsze kraje radziły sobie gorzej niż liderzy zglobalizowanego świata. Głównie działo się tak dlatego, że mniejsze kraje nie były w stanie pożyczać we własnych walutach, nie ze względu na związane z nimi problemy, ale po prostu dlatego, że waluty większych krajów były bardziej płynne ze względu na większe rynki. Rynki te przyciągały też większą uwagę ekonomistów. W ten sposób zasadniczo analiza makroekonomiczna skupiła się na krajach dużych – na tyle dużych, że miały one wolność ignorowania przynajmniej części z importowanych szoków. Początkowo ta asymetria w reakcji została przykryta przez fakt, że niektóre z tych mniejszych krajów prowadziły niespójną politykę monetarną w reżimie stałych kursów walutowych, które uczyniły je podatne na kryzysy. Skutkowało to zaleceniem politycznym przejścia do bardziej elastycznych reżimów kursowych i strategii celu inflacyjnego, które teoretycznie powinny izolować te gospodarki od globalnych warunków zewnętrznych.

Jak wskazano w licznych badaniach teoretycznych - bank centralny nie powinien reagować na takie zewnętrzne wydarzenia, które nie mają bezpośredniego wpływu na inflację w postaci efektów drugiej rundy. Twierdzenie to opiera się na obserwowaniu w latach 1970. i 1980. przemijającego charakteru ówczesnych szoków podażowych, które nie wymagały znaczącej odpowiedzi pieniężnej. W przeciwieństwie do tych twierdzeń wskazuje się, że towarzyszące ostatniemu kryzysowi finansjalizacja handlu, wzrost carry trade i uzależnienia od napływu kapitału są stałe i strukturalne. Jest to wyzwanie dla banków centralnych, których zadaniem jest również utrzymanie stabilności systemu finansowego.

Głównym celem projektu badawczego jest zatem określić wpływ zewnętrznych wstrząsów gospodarczych na politykę pieniężnej w gospodarce otwartej na gruncie empirycznym.

Proponowany projekt obejmuje trzy grupy teoretycznych i empirycznych analiz polityki pieniężnej (w tym polskiej). Grupa I bada reakcję na przepływy kapitałowe; Grupa II analizuje stopień reakcji na zmiany cen surowców (w tym energii); Grupa III to analiza korytarza walutowego, po przekroczeniu której następuje reakcja nieliniowa polityki pieniężnej.

Proponowane badania uzupełniają stan wiedzy na temat polityki monetarnej i stabilności finansowej. Badanie reakcji polityki pieniężnej na wstrząsy zewnętrzne ma zasadnicze konsekwencje dla oceny skutków strategii celu inflacyjnego. Ewentualne potwierdzenie głównej hipotezy pozwoliłoby zakwestionować powszechnie akceptowany pogląd, że przed kryzysem finansowym jedynym celem polityki pieniężnej jest zwalczanie inflacji. Byłoby to szczególnie ważne w sytuacji, w której pomimo istniejącego normatywnego konsensusu zakładającego brak reakcji władz monetarnych – w rzeczywistości, taka reakcja byłaby przeprowadzona. Proponowane badania również rozszerzają wiedzę o polityce pokryzysowej banków centralnych.

Na tej podstawie zostaną wskazane główne wyzwania dla polityki pieniężnej. Wnioski uzyskane z badań przeprowadzonych w ramach proponowanego projektu pozwolą na lepsze zrozumienie relacji między polityką pieniężną i globalnymi rynkami finansowymi oraz rzeczywistym funkcjonowaniem strategii bezpośredniego celu inflacyjnego w małych gospodarkach otwartych.


dr hab. Olga Kiuila, Interakcje gospodarcze na skutek nowej polityki energetyczne

Zgodność z polityką klimatyczną Unii Europejskiej będzie wymagała zmiany sposobu wytwarzania energii w Polsce polegającej na zmniejszeniu udziału węgla. Istnieje szereg potencjalnych scenariuszy dekarbonizacji, w których zwiększa się znaczenie odnawialnych źródeł energii a także pojawia się możliwość importu zarówno surowców do produkcji energii (np. gaz), jak również energii jako takiej. Ponadto, potencjalnie wysoce efektywnym źródłem energii jest energia jądrowa.

Decyzje o wyborze faktycznego miksu energetycznego są trudne z kilku powodów. Po pierwsze, wymagają one znacznych nakładów inwestycyjnych. Po drugie, wymagają planowania na dziesiątki lat do przodu (ze względu na te nakłady inwestycyjne i długi okres wdrożenia szeregu nowych rozwiązań). Po trzecie, zmiany w wykorzystaniu surowców mają bezpośredni wpływ na strukturę przemysłu i co za tym idzie, zmiany w zatrudnieniu i warunkach życia ludności bezpośrednio związanej z sektorem wydobywczym i sektorem produkcji energii. Po czwarte, reforma sektora energetycznego będzie miała długookresowy wpływ na względne ceny w gospodarce, co z kolei wpłynie na warunki gospodarowania i dobrobyt ekonomiczny zarówno w krótkim, jak i długim okresie.

Polityka energetyczna wymaga planowania na długie lata i ma znaczące konsekwencje ekonomiczne dla wszystkich podmiotów ekonomicznych. W ramach projektu proponujemy wyraźne rozbudowanie narzędzi służących ocenie zarówno kosztów, jak i korzyści z przyjętych zmian. Nasz model ekonomiczny pozwala na symulacje zachowań podmiotów gospodarczych: przedsiębiorstw, rządu oraz gospodarstw domowych zarówno w krótkim, jak i długim okresie adekwatnym do analizowanych przez nas zmian. Model ten będzie uwzględniał decyzje inwestycyjne przedsiębiorstw oraz decyzje o konsumpcji i oszczędnościach gospodarstw domowych w oparciu o zmieniające się ceny dóbr, usług oraz energii. Szczególnie dokładnie w modelu tym zostanie odwzorowany sektor energii, w szczególności technologia jądrowa.

Model ten pozwoli na analizę skutków zmian w różnych scenariuszach zmian w polityce energetycznej. Pozwoli na określenie optymalnego miksu energetycznego, który realizuje założone cele środowiskowe przy minimalnym koszcie ekonomicznym. Model pozwoli na przeanalizowanie reakcji gospodarstw domowych z uwzględnieniem zmian w konsumpcji i oszczędnościach. Ponadto, pozwoli on na analizę krótko i długookresowych zmian w strukturze produkcji sektorów przemysłowego i usługowego z uwzględnieniem zmian w handlu międzynarodowym.


dr hab. Katarzyna Kopczewska, Modele ekonometryczne przestrzenne ze stałą i zmienną strukturą sąsiedztwa. Zastosowanie do wyceny nieruchomości i lokalizacji firm

Cechą wielu zjawisk ekonomicznych jest możliwość przypisania ich do określonego miejsca w przestrzeni. Zbierając dane o takich zjawiskach, w bazach danych pojawiają się informacje o miejscu ich wystąpienia. Nie zawsze jednak analizowanie zjawisk ekonomicznych uwzględnia zarówno sam fakt powiązania ich z konkretnym miejscem, jak również – nawet mając świadomość o takim powiązaniu – wykorzystanie już posiadanych danych lokalizacyjnych. Wyniki takich modeli, zwanych a-przestrzennymi, nie zawsze mogą w sposób precyzyjny opisywać rzeczywistość. Istotnym postępem w analizach ekonomicznych było wprowadzenie tzw. modeli przestrzennych, które pozwalały rozważać zjawiska ekonomiczne w kontekście ich występowania w uprzednio ustalonych regionach, co wymaga określenia tzw. struktury sąsiedztwa, która w wypadku stałego podziału na regiony pozostaje w trakcie analiz niezmienna.

Pozwoliło to zidentyfikować i uwzględnić możliwe efekty wpływu sąsiednich regionów na zjawisko w danym regionie, rozprzestrzenianie się zjawisk ekonomicznych w przestrzeni czy też występowanie większych obszarów o podobnym poziomie (np. tzw. obszary aglomeracyjne) lub też wskazanie obszarów o krańcowo odmiennych wartościach badanych zmiennych (np. tzw. hot spot). Niezmienność uprzednio ustalonej struktury sąsiedztwa stosunkowo dobrze funkcjonowała w przypadku zjawisk o charakterze regionalnym (np. makroekonomicznym), problem powstawał przy analizie zjawisk, którym można było przypisać precyzyjnie określoną lokalizację punktową (zazwyczaj zjawiska mikroekonomiczne). Przykładami takich zjawisk, może być lokalizacja firm, czy też ceny danej nieruchomości (i wiele innych).

Dotychczas wypracowane modele przestrzenne nie w pełni dobrze działają dla takich zjawisk. Jednym z powodów jest fakt, iż pojawienie się nowej obserwacji (np. nowej firmy, nowej transakcji na rynku nieruchomości) istotnie wpływa na strukturę sąsiedztwa, tj. na powiązania pomiędzy (bliskimi) obserwacjami. Uwzględnienie za każdym razem nowej struktury jest niewygodne, i może powodować powstanie gorszych, a nawet odmiennych wyników ze względu na niestabilność struktury i zależności sąsiadów pod względem badanego zjawiska w przestrzeni.

Celem proponowanego projektu jest wypracowanie metody wyboru takiego „podziału przestrzeni”, który niezależnie od pojawienia się nowych obserwacji, jak najprecyzyjniej oddawałby strukturę sąsiedztwa i powiązania pomiędzy lokalizacjami badanego zjawiska. Jednocześnie podział ten byłby stabilny, a więc umożliwiałby włączenie takiej struktury przestrzennej do znanych już modeli. Z uwagi na to, że przy danych mikroekonomicznych, dysponujemy zazwyczaj jedynie niewielką próbą z całej populacji, wyniki modeli, a więc i wnioski o efektach przestrzennych danego zjawiska, mogą być bardzo uzależnione od posiadanych danych. Stąd kolejnym celem projektu jest, stworzenie metody, która umożliwi wyznaczenie stabilnych wyników, dla populacji, a nie tylko dla próby. Posiadanie rozkładu możliwych do uzyskania rezultatów analizy, pozwoli wybrać te najbardziej prawdopodobne (dodatkowo wskazując na możliwy przedział wyników na zadanym poziomie ufności, tj. z maksymalnym dopuszczalnym przez badacza błędem).

Oba cele projektu zostaną zrealizowane wykorzystując stosowaną już w badaniach statystycznych czy też ekonometrycznych tzw. metodę bootstrapingu, tj. metodę wielokrotnego losowania nowej próby badawczej ze zwracaniem z badanej szerszej próby. Nowością jaką wnosi projekt, będzie wykorzystanie tej metody przy konstruowaniu odpowiednich metod analizy danych przestrzennych. Na podstawie wielu wylosowanych „nowych” próbek, zostanie wybrana najbardziej prawdopodobna struktura sąsiedztwa dla całej populacji. Możliwe będzie także wskazanie najbardziej prawdopodobnych, tj. najbardziej odpowiadających rzeczywistości, efektów przestrzennych, czyli identyfikacji i podania charakterystyk danego obszaru w kontekście badanego zjawiska oraz ewentualnych wpływów zjawisk w sąsiedzkich lokalizacjach. Wypracowane metody w ramach wskazanych wyżej prac pozwolą na precyzyjniejsze prognozowanie mikroekonomicznych zjawisk przestrzennych w przyszłości.

W praktyce opisane wyżej cele będą zrealizowane na podstawie posiadanych danych odnośnie lokalizacji firm oraz danych o cenach nieruchomości. Są to dane typu punktowego z informacją o lokalizacji. Posiadana próba badawcza umożliwi przeprowadzenie całego postulowanego procesu poszukiwania najlepszej struktury sąsiedztwa, w więc powiązań między bliższymi czy dalszymi jednostkami, czy to w odniesieniu do położenia firm, czy też transakcji na rynku nieruchomości, a następnie wypracowanie modelu, który dobrze opisywałby obecne oraz prognozowałby przyszłe kształtowanie się lokalizacji firm czy też cen transakcyjnych na rynku nieruchomości wg lokalizacji. Umożliwi to także precyzyjniejsze, w porównaniu do aktualnie stosowanych metod analiz, wskazanie obszarów, które cechują się większym natężeniem pojawiania się nowych firm lub też ich brakiem oraz określenie przyczyn, które sprzyjają grupowaniu się przedsiębiorstw o podobnym profilu. W stosunku do rynku nieruchomości, efektem prac będą modele, które lepiej pozwolą wyodrębnić obszary o podobnych cenach nieruchomości, a także wskazanie przyczyn takiego stanu. Z uwagi na to, że wybrane do analizy dane mają typowy charakter zjawisk punktowych, wypracowane metody i rozwiązania łatwo będzie przenieść na inne zjawiska o podobnej charakterystyce.


dr hab. Michał Krawczyk, Gra na loterii w świetle ekonomii behawioralnej

Skąd bierze się popularność loterii? Biorąc pod uwagę jak mała część wpływów przeznaczana jest na nagrody, trzeba spodziewać się, że około połowy pieniędzy zainwestowanych w losy zostanie utracone. Jedynie garstka szczęśliwców spośród milionów graczy zdobędzie kiedyś główną wygraną (którą, jak pokazują badania, i tak zapewne wyda w niezbyt rozsądny sposób, a w ciągu kilku lat nie będzie wcale szczęśliwsza niż przed wygraną). Zaproponowano wiele interesujących wyjaśnień paradoksalnej popularności loterii; na ogół jednak trudno jest je jednoznacznie zweryfikować. W niniejszym projekcie przeprowadzimy serię eksperymentów terenowych, mających na celu zbadanie różnych powodów, dla których loterie mogą być złudnie atrakcyjne. Przykładowo, damy klientom wybór pomiędzy kuponami z losowo wybranymi liczbami i kuponami, na których będą mogli sami je wybrać. Stwierdzenie jaka część badanych ściśle preferuje tę drugą możliwość pozwoli nam wyciągnąć wnioski na temat zasięgu (błędnego) przekonania, że samemu jest się w stanie wybrać liczby dające większą szansę na wygraną.

Następna grupa badań będzie dotyczyła reklam. Często twierdzi się, że to marketing loterii winny jest nazbyt częstej czy intensywnej grze. Przeprowadzimy badanie treści mające na celu zidentyfikowanie rozpowszechnionych motywacji i poglądów, na których próbują budować atrakcyjność swych produktów reklamodawcy. Następnie powiążemy tę klasyfikację z postrzeganą przez badanych siłą perswazji danego hasła czy klipu. W ten sposób zyskamy wgląd w (błędne) przekonania dotyczące loterii, na których najskuteczniej bazować mogą marketerzy. Zbadamy także manipulacje dokonywane przez osoby i firmy oferujące „systemy” czy „poradniki” gry, które rzekomo mają pomóc w zdobyciu milionów.

W ostatniej grupie badań wykorzystamy nowe analizy ekonometryczne. Przykładowo, będziemy analizować dane sprzedażowe w grach, których uczestnicy mają możliwość wyboru pomiędzy mniejszą szansą na bardzo wysoką wygraną a większą szansą na nieco niższą wygraną. Popularność każdej z opcji da nam wskazówki co do rozkładu częstości według typów zniekształcania (przy podejmowaniu decyzji) małych prawdopodobieństw. Projekt przyniesie zatem postępy w zakresie badań nad rynkiem loterii i, ogólniej, badań podejmowania decyzji w sytuacji ryzyka. W jego ramach zostanie także stworzona strona internetowa dla nie-specjalistów, rozwiewająca niektóre popularne mity związane z grą na loterii, zwłaszcza te, które potrafią sprytnie wykorzystać marketerzy i oszuści.


dr hab. Bartłomiej Rokicki, Wykorzystanie regionalnych deflatorów cen w empirycznej analizie regionalnych determinant płac oraz do weryfikacji założeń modeli teoretycznych Nowej Geografii Ekonomicznej w zakresie indeksu cenowego

Projekt stawia przed sobą dwa cele. Po pierwsze chcemy zweryfikować empirycznie wpływ regionalnych indeksów cen na wyniki analiz dotyczących czynników determinujących wysokość płac na poziomie regionów. W tym kontekście zweryfikowane zostaną dwa podejścia dominujące obecnie w literaturze: model potencjału ekonomicznego oparty na przewidywaniach modeli teoretycznych Nowej Geografii Ekonomicznej (NGE) oraz model krzywej płac zaproponowany przez Blanchflower i Oswald (1990). W przypadku pierwszego z nich uwzględnienie regionalnych indeksów cen pozwoli na precyzyjniejsze oszacowanie parametru dla potencjału rynkowego niż ma to obecnie miejsce w literaturze przedmiotu. W przypadku krzywej płac wykorzystanie regionalnych deflatorów cen pozwoli zweryfikować hipotezę o systematycznym przeszacowywaniu rzeczywistej zależności pomiędzy płacami, a lokalną stopą bezrobocia. Na koniec tej części projektu przeprowadzona zostanie formalna analiza ekonometryczna weryfikująca, zgodnie z którą podejście oparte na krzywej płac lepiej tłumaczy przyczyny występowania regionalnych różnic w poziomie wynagrodzeń. W tym kontekście będzie to kontynuacja badań Fingleton i Palombi (2013, 2016), przy czym w naszym przypadku badanie oparte będzie na płacach realnych a nie nominalnych.

W drugiej części projektu planujemy empiryczną weryfikację jednego z najważniejszych założeń modeli NGE dotyczącego indeksu cenowego. Następnie zamierzamy opracować nowy model teoretyczny uwzględniający nowe wnioski płynące z badań empirycznych. Skoncentrujemy się tutaj na założeniu, zgodnie z którym regiony rdzenia powinny mieć niższy indeks cenowy dla dóbr przetwórstwa przemysłowego. Zgodnie z naszą hipotezą założenie to jest błędne. W celu weryfikacji powyższej tezy obliczymy regionalne indeksy cenowe dla dóbr przetwórstwa przemysłowego w Polsce. Następnie, jeśli nasze hipotezy badawcze okażą się prawdziwe (w zakresie trafności podejścia krzywej płac i wyższego poziomu indeksu cen dóbr przetwórstwa przemysłowego w regionach rdzenia), opracujemy nowy model teoretyczny uwzględniający powyższe czynniki w ramach podejścia NGE.

Głównym powodem podjęcia proponowanej tematyki badawczej jest brak badań w literaturze przedmiotu, które uwzględniałyby dane dotyczące regionalnych indeksów cenowych. W konsekwencji widoczna jest luka, która może zostać po raz pierwszy przynajmniej częściowo zapełniona dzięki realizacji proponowanego badania.


dr hab. Karolina Safarzyńska, Makro-behawioralna analiza instrumentów polityki środowiskowej

Celem projektu jest zaproponowanie serii modeli makro-behawioralnych w celu oceny efektów instrumentów polityki środowiskowej. Jak dotąd, analiza efektów polityki środowiskowej opiera się na modelu, który zakłada, że ludzie zachowują się jak doskonale racjonalne, maksymalizujące użyteczność jednostki. Wyniki licznych badań empirycznych pokazały, że w rzeczywistości ludzie popełniają błędy kognitywne i nie są w stanie ciągle optymalizować swoich wyborów. Ekonomia behawioralna włącza do teorii ekonomii realistyczne zachowania i tendencje behawioralne.

Ostatnio modele behawioralne są coraz częściej wykorzystywane w makroekonomii. Pokazano, że modele te wyjaśniają zjawiska empiryczne, gdzie przewidywania modeli oparte na założeniach o całkowitej racjonalności jednostek zawodzą. Jednakże, do tej pory makro-behawioralne modele nie były wykorzystywane w analizie skutków instrumentów polityki środowiskowej. W tym projekcie zbadamy, jak tendencje behawioralne mogą wpływać na wycenę społecznych kosztów emisji dwutlenku węgla (SCC), a także jak mogą one osłabiać skuteczność różnych instrumentów polityk środowiskowych. Na przykład, społeczny koszt emisji mierzy straty w gospodarce w wyniki wzrostu dwutlenku węgla (CO2). SCC jest używane przez Amerykańską Agencję Ochrony Środowiska i Komisję Europejską w ocenie korzyści i kosztów instrumentów polityki środowiskowej. Porównamy nasze oszacowania z wynikami wcześniejszych badań i ocenimy, kiedy ignorowanie tendencji behawioralnych może prowadzić do niedoszacowania społecznego kosztu emisji lub osłabić skuteczność instrumentów polityki środowiskowej.


dr hab. Joanna Siwińska-Gorzelak, Finansowanie sektora prywatnego w europejskich gospodarkach wschodzących przez banki zagraniczne: stabilność i wpływ nierównowagi fiskalnej

Banki zagraniczne odgrywają ważną rolę na rynkach finansowych europejskich gospodarek wschodzących. Są znaczącym źródłem finansowania sektora prywatnego, w tym wydatków inwestycyjnych. Udzielają one jednak także pożyczek sektorowi publicznego i kupują obligacje skarbowe. Dlatego pierwszym celem projektu jest analiza wpływu pożyczek publicznych na skłonność banków zagranicznych do finansowania wydatków prywatnych.

Obecność banków zagranicznych stwarza też pewne ryzyka. Ich działalność i podaż kredytu może zależeć od sytuacji gospodarczej w krajach macierzystych, która nie musi być zsynchronizowana z krajowym cyklem koniunkturalnym i popytem na kredyt. Drugim celem projektu jest analiza czynników wpływających na niedopasowanie popytu i podaży zewnętrznego finansowania wynikające z niezgodnej dynamiki cyklu koniunkturalnego we wschodzących gospodarkach europejskich i w krajach macierzystych banków penetrujących ich rynki finansowe. Przypuszczamy, że polityka fiskalna, a w szczególności wysokość deficytu i długu publicznego są ważnymi determinantami wspomnianego niedopasowania między podażą a popytem na zewnętrzne finansowanie.

Projekt dotyka dwóch kwestii, które mają wielkie znaczenie w kontekście wysokich i rosnących poziomów długu publicznego i olbrzymich międzynarodowych przepływów kapitału. Realizacja badania unaoczni wpływ polityki fiskalnej na dostępność i stabilność zewnętrznego finansowania sektora prywatnego przez zagraniczne banki.

Oba cele projektu będą osiągnięte w wyniku przeprowadzenia analiz ilościowych. Dane dotyczące aktywów banków zagranicznych, poziomów dochodu i wskaźników polityki fiskalnej w 20 wschodzących gospodarkach europejskich w okresie 2000-2015 będą analizowane za pomocą metod ekonometrycznych, aby ustalić istnienie zależności przyczynowo-skutkowych między zmiennymi.


dr Piotr Wójcik, Równoległa konwergencja dochodu i osiągnięć edukacyjnych w Polsce na poziomie regionalnym i lokalnym - analiza dynamiki rozkładu

Najważniejszym celem projektu jest sformułowanie i operacjonalizacja pojęcia konwergencji równoległej oraz zbadanie czy procesy konwergencji dochodu i osiągnięć edukacyjnych są ze sobą powiązane (zachodzą równolegle) na poziomie regionalnym i lokalnym. Celem dodatkowym jest analiza zbieżności kapitału ludzkiego (mierzonego osiągnięciami edukacyjnymi) na poziomie regionalnym i lokalnym w Polsce.

W badaniach ekonomicznych i regionalnych konwergencją (zbieżnością) najczęściej określany jest relatywnie szybszy rozwój biedniejszych krajów (regionów) w stosunku do krajów (regionów) bogatszych, powodujący zmniejszanie dystansu między nimi. Zjawisko przeciwne – zwiększanie się różnic – nazywane jest dywergencją. Badanie konwergencji najczęściej dotyczy miary dochodu, na przykład produktu krajowego brutto na jednego mieszkańca, ale może odnosić się także do innych mierzalnych zjawisk, np. poziomu życia, edukacji czy stopy bezrobocia.

W ostatniej dekadzie Polska osiągnęła znaczącą poprawę wskaźników dotyczących poziomu rozwoju. Produkt krajowy brutto na jednego mieszkańca Polski (uwzględniając różnice w cenach dóbr i usług między porównywanymi krajami) wzrósł z 49% średniej dla krajów Unii Europejskiej w roku 2004 do 67% w 2013 notując postęp w każdym roku. Równolegle imponujące postępy w wynikach w nauce osiągnęli polscy uczniowie, co znajduje potwierdzenie w międzynarodowych badaniach Programme for International Student Assessment (PISA) powtarzanych w odstępach trzyletnich pod auspicjami OECD. W ocenie zadań matematycznych polscy uczniowie awansowali z 25. miejsca na świecie w roku 2000 na 13. miejsce w 2012. W czytaniu ze zrozumieniem w roku 2000 startowali z 25. miejsca, aby w 2012 roku uzyskać miejsce 10. W naukach przyrodniczych wyniki poprawiły się z 22. miejsca w 2000 r. na 9. miejsce na świecie w 2012. Jak pokazują liczne wyniki analiz dla dochodu, ten imponujący postęp nie rozkłada się równomiernie na wszystkie regiony.

Edukacja jest uznawana za jeden z najważniejszych czynników rozwoju gospodarczego. Wysoki poziom edukacji (czy szerzej tzw. kapitału ludzkiego) decyduje o sukcesie krajów i regionów. Ograniczenia w dostępie do edukacji są źródłem wykluczenia ekonomicznego i społecznego. Jednak tym co naprawdę wpływa na tempo wzrostu gospodarczego jest nie poziom kapitału ludzkiego – mierzony na przykład udziałem osób z wykształceniem średnim lub wyższym w populacji czy średnią liczbą lat edukacji, ale jego jakość – mierzona na przykład przeciętnymi wynikami egzaminów na poszczególnych etapach edukacji.

Analizy powiązania procesów konwergencji dochodu i osiągnięć edukacyjnych na poziomie regionalnym i lokalnym, a także konwergencji kapitału ludzkiego lub osiągnięć edukacyjnych na poziomie regionalnym i lokalnym dotąd dla Polski nie przeprowadzano. Projekt wypełni tę lukę badawczą.

Punktem wyjścia badania będzie przegląd istniejących koncepcji konwergencji w kontekście możliwości ich uogólnienia na badanie konwergencji równoległej. Analizy konwergencji równoległej zastosowane w projekcie będą dotyczyły zbadania powiązania między procesem zbieżności dochodu i osiągnięć edukacyjnych na poziomie regionalnym i lokalnym. W kolejnym kroku zbadany zostanie także wpływ przystąpienia Polski do Unii Europejskiej na dynamikę procesów konwergencji obu zjawisk. Analizy zostaną przeprowadzone na poziomie województw, podregionów, powiatów i gmin.

Miarą dochodu analizowaną na poziomie województw i podregionów będzie produkt krajowy brutto na jednego mieszkańca, na poziomie powiatów przeciętne miesięczne wynagrodzenie brutto lub dochody budżetu powiatu na jednego mieszkańca z tytułu udziału w podatkach dochodowych od osób fizycznych, a na poziomie gmin dochody budżetu gminy na jednego mieszkańca z tytułu udziału w podatkach dochodowych od osób fizycznych. Miarą osiągnięć edukacyjnych na poziomie regionalnym i lokalnym będą wyniki sprawdzianu szóstoklasisty, a także wyniki egzaminów gimnazjalnych i maturalnych (szczegółowe i porównywalne dane na wszystkich poziomach regionalnych).


  • SONATA (dla osób posiadających stopień doktora rozpoczynających karierę naukową)
dr Małgorzata Kalbarczyk, Wpływ starzenia się na sytuację budżetową w Polsce

Projekt dotyczy jednego z najważniejszych procesów ludnościowych, jakim jest starzenie się populacji. Zwiększanie się odsetka osób starszych jest wynikiem zarówno wydłużania dalszego trwania życia, jak i niskiego poziomu dzietności. Prognozy Eurostatu wskazują, że do roku 2060 w krajach członkowskich Unii Europejskiej odsetek osób powyżej 65. roku życia wzrośnie do 30% z obecnego poziomu 17% (od 14% do 35% w Polsce).

Zwiększenie odsetka osób starszych wiąże się z zapewnieniem tym osobom godnych warunków życia zarówno w kwestii opieki, jak i zabezpieczeń finansowych. Stanowi to wyzwanie zarówno dla rodzin, jak i dla państwa. Wraz ze starzeniem się społeczeństwa rosną koszty dla budżetu państwa związane z wypłacanymi emeryturami oraz z wydatkami związanymi z opieką zdrowotną i opieką długoterminową.

Celem projektu jest ocena długookresowej stabilności fiskalnej Polski z uwzględnieniem dodatkowych kosztów dla budżetu związanych ze starzeniem się społeczeństwa. W badaniu zmodyfikujemy założenia przyjmowane w raporcie Komisji Europejskiej, dotyczącym stabilności fiskalnej, opierając się na mikroekonomicznych danych dotyczących populacji osób starszych (baza danych SHARE). Dodatkowo, również w oparciu o te dane, a dokładniej dane dotyczące aktywności fizycznej i stanu zdrowia osób starszych, postaramy się odpowiedzieć na pytanie, czy wzrost aktywności fizycznej osób starszych (czyli także popularyzacja takiej aktywności w społeczeństwie) przyczyniłby się do ograniczenia wydatków związanych z opieką medyczną i opieką długoterminową.

Proponowany projekt ma istotne znaczenie dla finansów publicznych oraz prowadzonej polityki fiskalnej. Może wskazać na większe zagrożenia związane z niestabilnością finansów publicznych w dłuższym horyzoncie czasowym, niż wynikające z ostatniego raportu Komisji Europejskiej, a wynikające ze wzrostu kosztów związanych ze starzeniem się społeczeństwa. Z drugiej strony, próba oceny wpływu aktywności fizycznej osób starszych na ich stan zdrowia i oszacowania znaczenia dla finansów publicznych z tym związanym, może wskazać na potrzebę większego promowania aktywności wśród starszej części społeczeństwa.


dr Beata Łopaciuk-Gonczaryk, Mechanizmy tworzenia się kapitału społecznego - analiza z wykorzystaniem polskich przykładów empirycznych

Głównym celem projektu jest zbadanie mikroekonomicznych mechanizmów tworzenia się kapitału społecznego. Analizie poddane będą różne czynniki determinujące przystępowanie do sieci społecznych i aktywność w nich, obdarzanie innych zaufaniem, odwzajemnianie przysług, a także tworzenie się postaw kooperacyjnych. W szczególności zostanie zbadane, w jaki sposób uczestnictwo w sieciach społecznych (zarówno mających formę organizacji jak i tych nieformalnych) przekłada się na zaufanie społeczne, normy wzajemności i postawy kooperacyjne.

Badacze kapitału społecznego, w celu wyjaśnienia w jaki sposób on powstaje, opierają się często na domniemaniu, że udział w dobrowolnych stowarzyszeniach ma pozytywne efekty zewnętrzne. Zakładają, że ludzie, działając w organizacjach, uczą się współpracować i komunikować się, nie tylko w ramach jednej grupy, ale również po za nią. Jednak okazuje się, że prawidłowość ta nie jest powszechnie obowiązująca, ponieważ istnieją liczne badania empiryczne podważające jej zasadność. Jeśli jesteśmy zainteresowani badaniem kapitału społecznego na poziomie całej społeczności lub kraju, a jednocześnie zakładamy, że powstaje on w wyniku interakcji oddolnych, musimy się starać zrozumieć warunki, w których inwestycje w kapitał społeczny w skali mikro przekładają się na jego agregację.

W badaniu zostaną zastosowane zarówno metody ilościowe, jak i jakościowe. Przeprowadzona zostanie analiza danych z Diagnozy Społecznej, w celu określenia czynników determinujących uogólnione zaufania i postawy kooperacyjne. Szczególna uwaga zostanie tutaj zwrócona na aktywność w organizacjach i uczestnictwo w sieciach nieformalnych. Jednakże, w celu zbadania oddolnych mechanizmów związanych z tworzeniem się kapitału społecznego, analiza danych wtórnych nie jest wystarczająca. Z tego powodu zostanie ona uzupełniona o przeprowadzenie pogłębionego studium przypadku polskiego i niekomercyjnego, lokalnego systemu wymiany i handlu (LETS), opartego na walucie społecznościowej. Jak pokazuje literatura międzynarodowa, stworzenie takiego systemu może mieć korzystne efekty społeczno-ekonomiczne i przyczyniać się do budowy kapitału społecznego we wspólnocie lokalnej. LETS pozwala, dzięki wykorzystaniu platformy internetowej, rozszerzyć tradycyjną pomoc sąsiedzką na szerszą grupę osób, a także przyczynia się do tworzenia więzi społecznych, szczególnie jeśli transakcje mają charakter bezpośrednich interakcji międzyludzkich i jeśli towarzyszą im dodatkowe wydarzenia umacniające istnienie wspólnoty. System ten umożliwia użytkownikom dostęp do zasobów społecznych istniejących w społeczności lokalnej i pozwala na rozwój przedsiębiorczości oraz wykorzystywanie własnych zdolności i realizowanie zainteresowań.

Zaproponowane studium ma na celu eksplorację mechanizmów społeczno-ekonomicznych działających w badanym systemie i analizę jego wpływu na kapitał społeczny. Główne pytanie badawcze dotyczy tutaj sposobu, w jaki interakcje interpersonalne towarzyszące transakcjom mogą wpływać na normy i postawy społeczne. Wykorzystane zostaną dane uzyskane z platformy internetowej, wspierającej przeprowadzanie transakcji i umożliwiającej wystawiane rekomendacji użytkownikom. Uzupełnione zostaną one o informacje uzyskane z pogłębionych wywiadów i ankiety internetowej.

Badacze kapitału społecznego zgadzają się, że jest on ważnym czynnikiem rozwoju gospodarczego. Jego niedostateczny poziom może być barierą dalszego wzrostu i niektórzy twierdzą, że ma to miejsce w Polsce. Pojawia się w tym miejscu pytanie, czy jest to jednak bariera długookresowa, zakorzeniona w czynnikach kulturowych i praktycznie nieusuwalna, czy można liczyć, że brakujący kapitał społeczny można w jakiś sposób stworzyć. Kapitał społeczny w swojej naturze powstaje oddolnie, ale niewiele wiadomo na skutek jakich mechanizmów do tego dochodzi. Poznanie i zrozumienie tych mechanizmów jest kluczowe, jeśli chcemy myśleć o możliwości stymulowania bądź wręcz kreowania kapitału społecznego, drogą tworzenia właściwych instytucji, w tym właściwych bodźców w przypadku programów bezpośrednio nastawionych na budowanie kapitału społecznego.


  • PRELUDIUM (dla osób rozpoczynających karierę naukową)
Akhvlediani Tinatin, Technologie Teleinformatyczne i Wydajność Handlu w krajach Europy Środkowej i Wschodniej. Wnioski z danych mikro i makro

W ostatnim stuleciu, rewolucja technologiczno‐informacyjna oraz Internet wraz z szybkim tempem globalizacji dały początek gospodarce cyfrowej, która stworzyła nowe możliwości w obszarach produkcji, logistyki, handlu i konsumpcji dóbr i usług na całym świecie. W konsekwencji, gospodarka światowa, a także handel międzynarodowy jest pod silnym wpływem ostatnich fal cyfryzacji. W takim środowisku, wdrażanie Technologii Teleinformatycznych (ICT) ma głęboki sens, ponieważ to ICT właśnie umożliwia stosowanie najnowszych osiągnięć technologicznych i czerpanie korzyści z cyfryzacji.

Niniejsza propozycja badania koncentruje się na wpływie ICT w handlu międzynarodowym. Podczas, gdy USA i wiele innych krajów o dużych gospodarkach, takich jak kraje Europy Zachodniej zostały szeroko omówione w analizie naukowej, literatura związana z efektami ICT na wyniki handlowe krajów Europy Środkowej i Wschodniej (CEEC) jest dość skąpa. Niniejsza propozycja badania koncentruje się na wpływie ICT na wyniki handlowe krajów Europy Środkowej i Wschodniej CEEC w skali zarówno mikro, jak i makro.

W obydwu analizach, zbadam wpływ infrastruktury ICT, wykorzystania ICT i kapitału ludzkiego traktując je jako miary umiejętności, które umożliwiają korzystanie z technologii teleinformatycznych. Dodatkowo w analizach na poziomie mikro, przetestuję ICT jako technologie ogólnego przeznaczenia (GPT). Oznacza to, że ICT generuje pozytywne efekty, gdy jednocześnie wprowadzone są zmiany w zakresie zarządzania / organizacji tychże firm. Takie podejście pozwoli wyciągnąć bardziej precyzyjne wnioski na temat wpływu ICT -­‐ moje szacunki mogą wskazać, iż infrastruktura i wykorzystanie technologii informacyjno‐ komunikacyjnych ICT nie generuje wystarczająco pozytywnych efektów na skutek braku zmian w procesach zarządzania, które są niezbędne do pełnego wykorzystania ICT.

W analizie na poziomie makro, z powodu braku możliwości przeanalizowania ICT jako GPT, wprowadzę gospodarkę opartą na wiedzy w analizie jako wskaźnik ogólnego środowiska technologicznego w CEEC. Dodatkowo, ponieważ dane na poziomie makro pozwalają na identyfikację miejsc docelowych przepływów handlowych, sprawdzę czy ICT zwiększa handel CEEC z krajami o wysokich dochodach. Co więcej, dane na poziomie makro pozwolą przebadać efekty sieciowe ICT (sugerując, że korzyści ze stosowania ICT są większe, jeśli oboje partnerzy handlowi intensywnie wykorzystują ICT). W celu uzyskania dokładnych wyników, zbadam eksport i import CEEC oddzielnie.

Proponowane badania są innowacyjne, ponieważ badają wpływ ICT na wydajność handlową CEEC w oparciu o dane z poziomów mikro i makro. Niosą one za sobą wartości zarówno teoretyczne jak i empiryczne. Jeśli chodzi o wkład teoretyczny, moje badania sugerują rozszerzenie modeli handlowych z badań mikro i makro, włączając w nie zmienne opisujące ICT w odniesieniu do kapitału ludzkiego. Co do wartości empirycznych, badanie to przedstawi dokładny wpływ ICT na wydajność handlową CEEC na poziomie firmy, i co więcej zezwoli na przetestowanie wyników również na poziomie kraju. Wyniki badań zaowocują możliwością wystosowania rekomendacji dotyczącej sposobu wykorzystania walorów jakie niosą ze sobą ICT w bardziej efektywny sposób.


Jan Aleksander Baran, Przeedukowanie pracowników na rynku pracy trwałe czy przejściowe? – dynamika

Polska doświadczyła znaczącego boomu edukacyjnego. Udział pracowników z wykształceniem wyższym wzrósł z 10,0% do 32,5% w okresie 1992-2014. W innych nowych krajach członkowskich UE zaobserwowano podobne natężenie zmian struktury wykształcenia. Ogromna ekspansja szkolnictwa wyższego stawia pytanie, czy została ona zaabsorbowana przez rynek pracy. Faktycznie jest wiele nienaukowych dowodów, wskazujących, że absolwenci uczelni są zmuszeni do podejmowania prac, które są poniżej ich poziomu wykształcenia. Nazywamy te osoby ‘przeedukowanymi’. Jednakże jest zaskakująco mało dowodów naukowych odnoszących się do wielkości przeedukowania i zmian w czasie w Polsce.

Niniejszy projekt będzie badać zmiany w skali przeedukowania, charakterystyki osób przeedukowanych oraz wpływ przeedukowania na mobilność zawodową i płac w Polsce. W efekcie projekt przyczyni się do lepszego zrozumienia zjawiska przeedukowania w gospodarkach doświadczających szybkich zmian edukacyjnych.


Wiktor Budziński, Rozwój modeli hybrydowych w kontekście wyceny dóbr nierynkowych

Wycena dóbr nierynkowych jest tematem zainteresowania w wielu gałęziach ekonomii takich jak ekonomia środowiska, kultury oraz transportu. Pozwala ona na uzyskanie informacji na temat rozkładu korzyści płynących z danego dobra publicznego, dzięki czemu możliwa jest jego bardziej efektywna alokacja. W celu wyceny dobra nierynkowego badacz musi zastosować jedną z metod ujawniania preferencji, a następnie wykorzystać odpowiednie modele ekonometryczne do analizy danych. Jednym z głównych celów tego typu analiz jest znalezienie czynników, które wpływają na preferencje jednostki. W ostatnich latach w literaturze przedmiotu coraz więcej uwagi jest poświęcane zmiennym ‘miękkim’, nazywanym również zmiennymi trudno mierzalnymi. Za takie zmienne uważa się postrzegane atrybuty badanego dobra (np. postrzegana czystość jeziora), nastawienia, wiedzę, doświadczenie lub inne czynniki psychologiczne. Nauki behawioralne sugerują, że takie czynniki mają znaczący wpływ na formowanie się preferencji jednostek, co wydaje się być potwierdzone przez wiele prac empirycznych. Głównym problemem związanym ze zmiennymi trudno mierzalnymi jest bezpośrednie uwzględnienie ich w modelach statystycznych. W swoim wykładzie z okazji przyznania Nagrody Nobla ekonomista Daniel Kahnemann podkreślał, że wciąż istnieje ogromna luka pomiędzy modelami poznawczymi (ang. cognitive models) oraz modelami podejmowania decyzji, które by pozwoliłyby na dogłębną analizę i zrozumienie zachowań jednostek. Hybrydowe modele wyborów dyskretnych (ang. hybrid choice models) mają potencjał aby wypełnić tę lukę. Jest to bardzo elastyczna klasa modeli pozwalająca na uwzględnienie zmiennych trudno mierzalnych bezpośrednio w modelu wyboru dyskretnego wykorzystując tzw. modelowanie zmiennych ukrytych. Pozwalają one również na inne rozszerzania takie jak np. heterogeniczność preferencji. Rosnąca liczba ich zastosowań w badaniach empirycznych wskazuje na to, że badacze wierzą, że poprzez umożliwienie bardziej behawioralnego podejścia są one w stanie zapewnić bardziej dogłębną analizę preferencji.

Celem niniejszego projektu jest dalszy rozwój modeli hybrydowych. Motywowane jest to rosnącą potrzebą wykorzystania bardziej behawioralnie adekwatnych modeli w wycenie dóbr nierynkowych, aby zapewnić wysoką jakość oszacowanych miar dobrobytu. Badania podstawowe przeprowadzone w niniejszym projekcie będą składały się z dwóch części. Pierwsza z nich jest bardziej teoretyczna i nastawiona na lepsze zrozumienie działania modeli hybrydowych. Pomimo ich rosnącej popularności, są one przez badaczy często traktowane jako „czarne skrzynki” i stosunkowo mało uwagi zostało poświęcone na zrozumienie ich wyników oraz poprawne wnioskowanie na ich podstawie. Ze względu na ich skomplikowaną strukturę różne efekty modelu mogą zostać ze sobą pomieszane jeżeli model zostanie źle wyspecyfikowany. Przy pomocy symulacji Monte Carlo chcemy odpowiedzieć na pytanie jak wybór specyfikacji modelu hybrydowego może wpłynąć na poprawność jego działania. Drugim problemem jaki chcemy zaadresować również przy pomocy symulacji jest potencjał modeli hybrydowych do zmniejszenia błędu wynikającego z endogeniczności tzw. zmiennych indykatorowych. Odpowiedzi na te pytania badawcze pozwolą na lepsze zrozumienie modeli hybrydowych, w szczególności na poprawną interpretację ich wyników oraz wpływu zmiennych ‘miękkich’ na decyzje podejmowane przez jednostki.

Druga część badań podstawowych ma na celu rozszerzenie wykorzystania modeli hybrydowych do metody kosztu podróży. Jest to metoda wyceny dóbr publicznych służących do rekreacji, takich jak lasy, morza czy jeziora. W tej metodzie wykorzystuje się modele ekonometryczne w celu określenia wpływu różnych czynników na popyt na rekreację (zdefiniowany jako liczba odbytych wizyt do danej lokalizacji w danym okresie czasu). Proponowane przez nas hybrydowe modele dla liczebności zdarzeń pozwolą na analizę wpływu zmiennych ‘miękkich’ na zwyczaje rekreacyjne gospodarstw domowych. Obecnie czynniki te są albo pomijane albo uwzględnianie w metodologicznie niepoprawny sposób. Zalety naszego nowego podejścia zaprezentujemy wykonując wycenę dobra publicznego przy użyciu metody kosztu podróży. Uzyskane wyniki porównamy z tradycyjnym podejściem pomijającym czynniki behawioralne.


Dorota Celińska, Czynniki sprzyjające powstawaniu innowacji poprzez współpracę w projektach Open Source

Celem projektu badawczego jest określenie, jak struktura sieci społecznej i jakie charakterystyki programistów tworzących oprogramowanie Open Source sprzyjają powstawaniu innowacji w społeczności Open Source. Innowacje stanowią powstające w ramach współpracy pomiędzy programistami nowe programy lub poprawki.

Prowadzone w tym projekcie analizy oparte zostaną na unikatowej bazie zebranej z wykorzystaniem techniki web scrapping serwisu GitHub, stanowiącego obecnie jeden z największych serwisów związanych z oprogramowaniem Open Source. Baza zawiera publicznie dostępne dane umieszczone na stronach programistów zarejestrowanych w serwisie. Programiści wchodzą w różne relacje ze sobą (np. otrzymują informacje o działaniach innych osób, o ich projektach, czy współtworzą oprogramowanie), dlatego reprezentujemy ich jako elementy (węzły) sieci społecznej.

W oparciu o powyższą bazę sprawdzimy czy reputacja programisty (mierzona m.in. za pomocą liczby osób, które wyraziły zgodę na otrzymywanie wiadomości o jego aktywności oraz liczba przyznanych wyróżnień projektom programisty) zwiększą prawdopodobieństwo powstania innowacji w ramach współpracy z nim. Zbadamy tez relacje pomiędzy powstawaniem innowacji a zjawiskiem homofilii – czy współpracują ze sobą programiści o podobnych charakterystykach.

Pierwszym zadaniem będzie uporządkowanie i potencjalne uzupełnienie danych surowych pobieranych z serwisu GitHub i publicznych baz danych GHTorrent i GithubArchive. Dane dotyczące programistów są dostępne publicznie, jednak bardzo rozproszone i mogą zawierać zanieczyszczenia, które na tym etapie analiz powinny zostać usunięte.

Drugie zadanie obejmuje przygotowanie bazy danych w konkretnej postaci wymaganej dla modeli analitycznych wykorzystywanych w badaniu. Cześć danych jednostkowych wymaga ujednolicenia i agregacji. Dodatkowo, w tym zadaniu odbędzie się umieszczenie badanych sieci społecznych w przestrzeni hiperbolicznej. Wykorzystanie grafów hiperbolicznych do reprezentacji sieci społecznych jest stosunkowo nowym podejściem, pozwalającym opisać zależności w sieciach, które tworzą się zarówno dzięki zjawisku popularności danego węzła, jak i podobieństwa miedzy węzłami.

W trzecim zadaniu sprawdzimy, jak struktura sieci, w której działają programiści wpływa na prawdopodobieństwo zaistnienia miedzy nimi innowacji. Spróbujemy tez określić, jakie charakterystyki programistów sprzyjają podjęciu z nimi współpracy.

Czwarte zadanie to walidacja wyników otrzymanych we wcześniejszych zadaniach. Na podstawie zebranej drugiej fali danych (obecnego stanu sieci społecznej), będziemy się starali przewidzieć, czy pomiędzy dwojgiem programistów pojawiła się innowacja w oparciu o narzędzia przygotowane we wcześniejszych zadaniach. Prognozowany graf porównamy z rzeczywistym. Ten krok pozwoli nam sprawdzić, na ile otrzymane przez nas ilościowe wyniki mogą być uogólniane.

Dotychczasowe badania społeczności Open Source dotyczyły zazwyczaj grup 100-300 programistów, skupionych w konkretnym projekcie. Praktycznie nie korzystano z analizy sieci społecznych oraz metod ekonometrycznych do ich analizy. Prezentowany projekt stara się wypełnić te luki badawcze. Badanie łaczy tematycznie zarówno obszary informatyki, ekonomii, jak i innych nauk społecznych oraz wykorzystuje unikatowa, reprezentatywna dla społeczności Open Source bazę danych.


Magdalena Smyk, Samo-selekcja w wyborze przyszłego zawodu: rola rodziców

„Kim jesteś?” – na tak postawione pytanie, większość z nas wymieniłaby w pierwszym odruchu swój… zawód. „Jestem prawnikiem”, „jestem lekarzem”, „jestem astronautą” – niewiele jest w naszym życiu wyborów, które w tak kompleksowy sposób determinują to kim jesteśmy lub kim się czujemy. Wybór zawodu jest więc pod wieloma względami wyjątkowy. Chyba każdy przyzna, że decyzja podjęta często jeszcze w szkole średniej niezaprzeczalnie stanowi punkt zwrotny w życiu praktycznie każdego z nas.

Co sprawia, że wybieramy ten, a nie inny zawód? Że chcemy być tancerzem, a nie naukowcem?

Lekarzem, a nie strażakiem? Czynników bez wątpienia jest wiele. W teorii ekonomii zakłada się, że decyzję o wyborze zawodu podejmujemy właściwie na podstawie dwóch informacji – o koszcie wykształcenia oraz przyszłych zarobkach. Gdybyśmy wszyscy byli tacy sami to podążając tym tokiem rozumowania wszyscy wykonywalibyśmy tę samą pracę. Ale nie jesteśmy – różnimy się od siebie zdolnością do nauki różnych przedmiotów i nabywania określonych umiejętności. Wreszcie, jesteśmy mniej lub bardziej produktywni w zadaniach, które otrzymujemy.

I choć model teoretyczny pokazuje nam drogę, dzięki której zarówno indywidualnie osiągalibyśmy największe zyski, jak i cała gospodarka zarabiałaby najszybciej – idealne przypisanie osób do zawodów w praktyce się nie zdarza. Nie każdy kto ma zdolności do wykonywania bardzo skomplikowanej pracy ma środki, aby się wykształcić. Niektórzy pracownicy są (czasem już na poziomie edukacji) dyskryminowani ze względu na cechy, które nie wpływają na ich produktywność, np. kolor skóry czy płeć. Czynniki zewnętrzne wspomniane powyżej są również przedmiotem zainteresowania badań ekonomicznych.

Z punktu widzenia proponowanego projektu interesujący jest jednak inny czynnik, czynnik wewnętrzny, o którym nie możemy zapominać w kontekście wyboru przyszłego zawodu – nasze preferencje. W badaniach naukowych dotyczących wyboru przyszłego zawodu w dziedzinie ekonomii, preferencje były do tej pory traktowane jak „czarna skrzynka”. Ale preferencje nie są przecież cechą, z którą się rodzimy. Są kształtowane w procesie dorastania. A na ich ostateczny kształt bez wątpienia istotny wpływ mają rodzice.

Celem badania jest sprawdzenie i opisanie, w jakim stopniu przykład oraz przekonania rodziców mogą mieć wpływ na kształtowanie się preferencji, a w konsekwencji wybory młodych ludzi na rynku pracy. Obserwując mamę i tatę, słuchając ich rad i opinii, dzieci budują obraz świata, w którym chcą żyć. Jeśli rodzice są dla nich wzorem częściej decydują się podążać ich śladem lub korzystać z ich rad. Dlaczego ten mechanizm może być ważny?

Rozważania dotyczące wpływu rodziców na decyzje zawodowe dzieci wydają się szczególnie istotne z punktu widzenia tzw. „samoselekcji” do zawodów. Kiedy spojrzymy na rynek pracy i to kto trafia do jakiego zawodu, możemy z łatwością wyodrębnić zawody zdominowane przez mężczyzn i te zdominowane przez kobiety. Pojawia się więc pytanie: czy taki rozkład wynika z preferencji czy może wpływ mają inne czynniki? Rynek pracy się zmienia – zarówno kobiety, jak i mężczyźni coraz częściej wybierają zawody tradycyjnie zarezerwowane dla przedstawicieli innej płci. To sugerowałoby, że różnice w preferencjach nie wynikają z tzw. „biologii”. Jednocześnie luka w partycypacji, w niektórych zawodach nadal pozostaje. Co więcej, kobiety częściej wybierają gorzej płatne zawody, co skutkuje luką płacową między kobietami a mężczyznami. Z tej perspektywy zbadanie mechanizmu kształtowania się preferencji zawodowych wydaje się nie tylko ciekawe, ale również ważne dla prawidłowego rozwoju.


Zbigniew Szkop, Znaczenie usług ekosystemowych świadczonych przez drzewa w planowaniu i zarządzaniu terenami miejskimi

Badanie odnosi się do zagadnienia wyceny usług ekosystemów świadczonych przez drzewa miejskie, które to jest częścią szerszego zagadnienia podejmowanego w ramach szkoły ekonomii ekologicznej: badanie współzależności, jakie występują między człowiekiem i przyrodą. Celem badania będzie zbadanie wpływu, jaki usługi ekosystemów świadczone przez drzewa mają na jakość życia ludzi w miastach w odniesieniu do lokalnych celów polityki ochrony środowiska. Badanie ma na celu wycenić wartość usług regulacyjnych, jakie dostarczają drzewa, a przez to dostarczyć informacji niezbędnych do skonstruowania bardziej efektywnego system zarządzania zielenią miejską, który ułatwi osiąganie celów lokalnej polityki ekologicznej w zakresie dbałości o jakość powietrza i przeciwdziałanie zmianom klimatu.

Aby opracować szczegółowe plany zarządzania zielenią miejską, zostaną wykorzystane dwa działania. Po pierwsze narzędzie i-Tree zostanie dostosowane w taki sposób, aby lepiej odzwierciedlało wartości usług ekosystemów świadczonych przez drzewa w naszym klimacie. Następnie model BenMAP zostanie wykorzystany, aby przedstawić wartość tych usług w postaci pieniężnej.

Po drugie model “przełożony-podwładny” zostanie wykorzystany, aby opracować poprawny motywacyjnie kontrakt odnoszący się zarówno do kwestii asymetrii informacji jak i do odpowiednio zinternacjonalizowanych efektów zewnętrznych. Badanie skupi się na łącznej produkcji usług ekosystemowych, które są dobrem publicznym, przez drzewa miejskie zarządzane przez „przełożonych” (władze miasta) i „podwładnych” (jednostki zarządzające zielenią miejska). Model ten będzie się również odwoływał do celów ochrony środowiska, jakie miasto ma spełniać.

W skrócie plan badawczy można podsumować poniższymi punktami:

  1. Zbieranie i analiza aktualnej literatury teoretycznej i empirycznej na temat wyceny usług ekosystemowych świadczonych przez drzewa miejskie (ukończone);
  2. Modelowanie za pomocą narzędzia i-Tree Eco;
  3. Modelowanie za pomocą narzędzia BenMAP;
  4. Analiza otrzymanych wyników;
  5. Aplikacja modelu „przełożony-podwładny”;
  6. Rozpowszechnienie wyników.

Przeprowadzone badanie, ma zarówno bardzo istotne znaczenie teoretyczne, jak i praktyczne. Jego najważniejsze atuty są opisane poniżej:

Rozwój ekonomii ekologicznej

Wyniki badań przyczynią się do rozwoju ekonomii ekologicznej dzięki dopasowaniu modelu powszechnie używanego do wyceny usług ekosystemów drzew miejskich na świecie do warunków lokalnych dla Polski.

Praktyczny sens badania

Wyniki badania pomogą nam również poznać złożoność zależności, jakie występują pomiędzy przyrodą a ludźmi w miastach, co ma szczególnie istotne znaczenie w dobie postępującej urbanizacji świata.

Osiąganie limitów unijnych w zakresie ochrony środowiska dzięki innowacyjnemu wykorzystaniu modelu „przełożony-podwładny”.

Po raz pierwszy zostanie wykorzystany model „przełożony-podwładny”, w celu opracowania najbardziej efektywnego sposobu zarządzania zielenią miejską, odnoszący się do konceptu asymetrii informacji oraz efektów zewnętrznych. Badanie będzie się skupiało na łącznej wartości usług świadczonych przez drzewa miejskie, które należy utożsamiać z dobrem publicznym, zarządzanych przez „przełożonych” – wysokich urzędników miejskich, oraz w ich imieniu „podwładnych” - osób bezpośrednio odpowiedzialnych za działania związane z dbaniem o zieleń miejską. Takie podejście pozwoli skonstruować bardziej efektywny system zarządzania zielenią miejską, które jednocześnie przyczyni się do polepszenia jakości powietrza w Warszawie.


Van der Velde Lucas Augusto, Rosnące nierówności: różnice płacowe wewnątrz grup zawodowych

Postęp technologiczny ma niewyobrażalny wpływ na praktycznie każdy aspekt naszego życia, włączając w to naszą pracę. Kluczową kwestią dla połączenia rozwijającej się technologii z pracą jest fakt, że niektóre z zadań wykonywanych przez ludzi da się zaprogramować tak, aby wykonywane były przez maszyny, ale nie wszystkie. Pracownicy nadal posiadają przewagę komparatywną w zadaniach wymagających kreatywności, umiejętności interpersonalnych czy zdolności motorycznych. Jednak adaptacja nowych technologii nie tylko przesunęła zapotrzebowanie na pracowników specjalizujących się w nie-rutynowych zadaniach, ale mogła również zaowocować zmianą w zakresie zadań przypisanych do konkretnego zawodu.

Celem projektu jest zbadanie jak nowe technologie wpłynęły na nierówności płacowe wewnątrz niektórych grup zawodowych. Tym samym chcemy rozszerzyć dotychczasową literaturę na dwa sposoby. Po pierwsze, postaramy się uwzględnić dynamiczny aspekt omawianego problemu, tzn. będziemy koncertować się nie na poziomie konkretnych zadań, ale na zmianach jakie nastąpiły w grupach zadań oraz na tempie tych zmian. Po drugie, będziemy patrzeć raczej na nierówności wewnątrz grup zawodowych niż tych na rynku całościowym.

Obie zmiany wydają być się istotne z perspektywy decyzji politycznych i gospodarczych. Analiza dynamiki zmian pozwala zrozumieć jak i dlaczego zmieniają się zawody i pracownicy, a także jak pracownicy dostosowują się do tych zmian. Koncertując się nie nierównościach wewnątrz grup zawodowych, możemy w pełni ocenić kto w największym stopniu skorzystał z zaistniałej sytuacji, a kto stracił w związku z postępem technologii. Możemy również rozważyć, jakie instrumenty polityki rynku pracy mogłyby złagodzić negatywne skutki tej przemiany.

W szczególności opisywany projekt ma na celu zweryfikowanie dwóch hipotez. Po pierwsze, chcemy sprawdzić czy zmiany w zakresie zadań przypisanych do zawodu w kierunku zwiększonej liczby zadań bardziej skomplikowanych spowodowały podwyżki w płacach w tych zawodach. Więcej wymagających zadań wymaga przecież dodatkowych szkoleń a to powinno być rekompensowane w płacy. Druga hipoteza zakłada, że w zawodach, w których zmiany były bardziej rozległe również nierówności płacowe powinny wzrosnąć. Pracownicy są różni, jedni dostosowują się szybciej, drudzy wolniej – a to powinno być widoczne w ich wynagrodzeniach.

W celu zweryfikowania tych hipotez, najpierw scharakteryzujemy zaistniałe zmiany i sprawdzimy czy faktycznie pracownicy wykonują obecnie mniej rutynowych zadań na rzecz tych wymagających kreatywności. W tym celu skorzystamy z baz danych O*NET i DOT. Analiza będzie wymagała wyjścia poza ramy wąskiej definicji zawodu oraz dostarczenia miary rozmiaru i zakresu zmian. Wskaźnik, który miałby te wszystkie cechy nie istnieje jeszcze w literaturze, dlatego celem tego projektu będzie stworzenie takiego indeksu.

Projekt wprowadza trzy innowacje. Pierwszą, jest podejście do zmian technologicznych z perspektywy dynamicznej i wzięcie pod uwagę różnego tempa dostosowania się pracowników do postępu. Drugą, jest przygotowanie syntetycznego wskaźnika, miary zmian w zakresie zadań przypisywanych konkretnym zawodom. Trzecią, będzie analiza rozszerzona o kraje dotychczas nie pojawiające się w kontekście badań nad tego typu zmianami na rynku pracy – kraje transformacyjne.

Podsumowując, wierzymy, że wyniki naszych badań będą stanowić interesujący z punktu widzenia całego społeczeństwa materiał informacyjny. Potwierdzenie hipotez oznaczałoby, że na rynku pracy istnieją trudności z dostosowaniem się niektórych pracowników do szybko postępujących zmian technologicznych. Oznaczałoby to, że wskazane byłoby wdrażanie programów ciągłego kształcenia. Jednocześnie, wyniki pozwoliłyby na wykrywanie tych zawodów i tych obszarów, dla których zmiany są wyjątkowo uciążliwe, a dzięki temu możliwe byłoby przeciwdziałanie niektórym negatywnym skutkom postępu technologicznego.


Zbigniew Bohdanowicz, Analiza czynników wpływających na przekonania dotyczące Antropogenicznej Zmiany Klimatu i na stopień poparcia wobec rozwiązań ograniczających jej negatywne efekty

Wśród naukowców zajmujących się klimatem powszechne jest przekonanie, że obecnie obserwowane, szybkie zmiany klimatyczne są spowodowane w decydującej części działalnością gospodarczą człowieka. Są one negatywnym efektem ubocznym rewolucji przemysłowej, która umożliwiła ludziom życie na wysokim, nieosiągalnym nigdy wcześniej poziomie. Niestety z drugiej strony, gwałtowny rozwój cywilizacji jest coraz większym zagrożeniem dla reszty życia na Ziemi, a w dłuższej perspektywie, także dla samych ludzi. Przyczyny i możliwe skutki Globalnego Ocieplenia są już dobrze poznane przez specjalistów zajmujących się tym tematem, są też opracowane rozwiązania, które mogą skutecznie temu problemowi przeciwdziałać.

W tej sytuacji paradoksalne jest, że pomimo ogromnej wagi problemu i dokładnego przeanalizowania przez ekspertów zarówno przyczyn jak i możliwych rozwiązań, negatywne tendencje przybierają na sile. Błędne okazało się intuicyjne założenie, że przedstawienie rzetelnych informacji o problemie jest skuteczną metodą przekonania społeczeństw o konieczności podjęcia działań w tym zakresie. Sytuację dodatkowo utrudniają działania politycznych i przemysłowych lobby, które starają się manipulować przekonaniami ludzi na temat problemów środowiskowych.

Eksperci zajmujący się tematem Antropogenicznej Zmiany Klimatu są zgodni, że zagrożenia wynikające z tego zjawiska są poważne i niezbędne jest jak najszybsze podjęcie działań zapobiegawczych (takich jak redukcja emisji CO2, przystosowanie miast i rolnictwa do częstszych anomalii pogodowych itd.). Jednak ważną i często wspominaną w literaturze barierą jest ograniczone poparcie społeczne, bez którego skuteczne wprowadzenie tych działań w życie jest utrudnione lub wręcz niemożliwe.

W niniejszym projekcie zostanie sprawdzone jaki wpływ na poparcie dla działań przeciwdziałających zmianom klimatycznym mają różne, wymieniane w literaturze naukowej, czynniki. Planowane badanie zostało oparte na wiedzy pochodzącej z psychologii społecznej, ekonomii eksperymentalnej i psychologii ekologicznej. Takie interdyscyplinarne podejście pozwala spojrzeć na problem z nowej strony i daje duże szanse na odkrycie nowej, ważnej wiedzy. Porównanie w jednym projekcie badawczym znaczenia np. zrozumienia przyczyn zjawiska, oceny jego konsekwencji, poczucia odpowiedzialności za nie, podatności na mechanizm wypierania niewygodnych informacji itd., pozwoli ocenić zależności pomiędzy tymi czynnikami i ocenić ich wpływ na wyrażane przekonania wobec inicjatyw zmniejszających negatywne efekty Globalnego Ocieplenia.

Dodatkowo silną stroną badania jest planowane przeprowadzenie go w dwóch krajach - w Polsce i w Niemczech. Są to kraje podobne pod względem położenia geograficznego, struktury populacji i kultury, ale zdecydowanie różniące się prowadzoną polityką klimatyczną i energetyczną.

Intencją wnioskodawcy jest, aby poprzez lepsze zrozumienie przyczyn stojących za postawami wobec Antropogenicznej Zmiany Klimatu, przyczynić się do skuteczniejszego przekazywania ludziom wiedzy o tym problemie i zalecanych przez ekspertów rozwiązaniach.


Bernadeta Gołębiowska, Preferencje konsumentów wobec zarządzania popytem na energię elektryczną w Polsce

W Polsce z roku na rok obserwuje się wzrost zapotrzebowania na energię elektryczną. Ograniczenia techniczne oraz konieczność wyłączenia przestarzałych bloków w elektrowniach sprawia, że Polski System Elektroenergetyczny jest narażony na problemy związane z niedoborem wymaganej mocy i trudnością zachowania równowagi popytu i podaży. Działania nakierowane na wzrost efektywności energetycznej stają się przedmiotem coraz większej uwagi polityków, czego wyrazem są regulacje zobowiązujące do ich podejmowania. Propozycją, która może wpłynąć na bezpieczeństwo systemu jest kontrola konsumpcji. Zarządzanie popytem (z ang. Demand Side Management – DSM) to metoda kontroli zapotrzebowania na prąd. Polega ona na zmianie zachowania konsumentów energii elektrycznej w odpowiedzi na bodziec dostawcy energii, któremu zależy na równomiernym obciążeniu sieci lub zmniejszeniu popytu w chwilach największego obciążenia. DSM dotychczas nie było popularnym podejściem w Polsce. Potrzebne są badania na temat możliwości stosowania metody i jej skutków.

Celem projektu badawczego jest określenie jaką wartość konsumenci przypisują zmianie nawyków związanych ze zużywaniem energii elektrycznej (np. przesuwaniu zużycia energii w czasie) oraz jaki jest wpływ norm społecznych na tę wartość. Możliwe będzie poznanie wpływu społecznego na gotowość do akceptacji kontroli zewnętrznej i ujawniania informacji o zużyciu. Dzięki badaniu zostanie określona utrata użyteczności konsumentów związana z programami DSM. Będzie to pierwsze badanie preferencji odnośnie DSM w Polsce z wykorzystaniem metody wyboru eksperymentalnego. Otworzy nowe pole do badań – włączenie wpływu społecznego do analizy potencjału zarządzania popytem. Wzbogaci wnioski płynące z Teorii Planowanego Zachowania.

Analiza będzie oparta na danych z eksperymentu wykorzystującego metodę preferencji deklarowanych, który będzie przeprowadzony na próbie 1 000 respondentów w Polsce. Każdy uczestnik będzie proszony o dokonanie wyborów pomiędzy różnymi kontraktami na zakup energii elektrycznej. Wybory będą związane z celem wykorzystania prądu (do jakich urządzeń), porą dnia oraz ujawnianiem informacji na temat zużycia. Dzięki wykorzystaniu metod ekonometrycznych, możliwe będzie oszacowanie wynagrodzenia jakie zrekompensowałoby konsumentom utratę swobody w zakresie korzystania z energii elektrycznej. Wpływ poszczególnych cech kontraktu na wybór będzie mierzony poprzez zmianę poszczególnych atrybutów kontraktu. Kwestionariusz norm społecznych umożliwi zbadanie wpływu społecznego na wybory dokonywane przez konsumentów w zakresie korzystania z energii elektrycznej.

DSM jest narzędziem przynoszącym szereg korzyści (zarówno ekonomicznych jak i dla środowiska), między innymi zwiększa bezpieczeństwo działania systemu i jego wiarygodność, redukuje przerwy w dostawie prądu. Możliwe efekty to również uniknięcie potrzeby inwestycji w moce wytwórcze, linie przesyłowe. Jest ważnym elementem polityki klimatycznej UE i kluczowym aspektem planów dotyczących systemu energetycznego. Może przyczynić się do osiągnięcia większej elastyczności popytu na energię elektryczną i pomóc w równoważeniu popytu i podaży. W celu skutecznego wdrożenia mechanizmów zarządzania popytem, konieczne jest lepsze zrozumienie preferencji konsumentów wobec uczestniczenia w tego rodzaju programach.

Innowacyjność badania polega na zastosowaniu metody wyboru eksperymentalnego do zbadania potencjału związanego z zarządzaniem popytem na energię elektryczną gospodarstw domowych w Polsce. Wyniki będą pomocne dla dostawców energii elektrycznej oraz dla realizatorów planu wdrożenia inteligentnych liczników w Polsce. Możliwe będzie oszacowanie utraty użyteczności konsumentów z powodu ograniczeń związanych z korzystaniem z energii elektrycznej (np. ograniczenie korzystania z pralki, wyższa/niższa temperatura w mieszkaniu) oraz z powodu porównywania zużycia z innymi. Te wartości mają znaczenie dla decydentów, pokazują jaki jest koszt zmiany nawyków konsumentów, np. przesuwania zużycia energii elektrycznej w czasie. Po raz pierwszy zostanie zbadany wpływ norm społecznych na preferencje odnośnie mechanizmów DSM.


Michał Paliński, Czy unijne Rozporządzenie o Ochronie Danych Osobowych rozwiąże paradoks prywatności w Internecie? Badanie preferencji użytkowników wobec mechanizmów kontroli prywatności

Czy kontrola nad prywatnością stanowi istotną wartość dla użytkowników internetu? Rosnąca liczba badań empirycznych wskazuje na występowanie rozbieżności między obawami internautów odnośnie zakresu wykorzystania ich danych osobowych a realnymi działaniami jakie podejmują oni w zakresie ochrony tych danych. Zjawisko to określane jest w literaturze przedmiotu mianem paradoksu prywatności. Dysonans między deklarowaną troską o prywatność a faktycznymi praktykami ochrony danych osobowych osłabia argumentację krajowych i międzynarodowych instytucji regulacyjnych motywujących polityki wzmacniania kontroli prywatności w sieci obawami użytkowników odnośnie jej niewystarczającego zakresu. Obecnie dotyczy to w szczególności wprowadzanego przez Unię Europejską Rozporządzenia Ogólnego o Ochronie Danych Osobowych (RODO), które ma wejść w życie w 2018 roku.

Badanie preferencji użytkowników wobec różnych zakresów kontroli prywatności może dostarczyć argumentów na rzecz odpowiednich rozstrzygnięć niedookreślonych aspektów RODO w polskim kontekście regulacyjnym. Pozwoli ono również ocenić RODO z punktu widzenia zmian dobrobytowych polskich internautów poprzez oszacowanie nadwyżki konsumentów wynikającej z wprowadzenia tej regulacji. Aby nie wpaść w „pułapkę” pozornej troski użytkowników o ich prywatność proponowane badanie uwzględniać będzie dorobek behawioralnej ekonomii prywatności. Eksperymentalne badania prowadzone nad wyceną prywatności wskazują na konieczność rozróżnienia troski o ochronę prywatności formułowaną na ogólnym poziomie i kontekstualnego charakteru działań związanych z konkretnymi aspektami ochrony prywatności, w których rolę odgrywa analiza zysków i strat związanych z ujawnianiem danych osobowych w zamian za np. lepsze sprofilowanie usług internetowych.

Ocena preferencji konsumentów odnośnie poszczególnych narzędzi kontroli prywatności w internecie odbędzie się z wykorzystaniem eksperymentalnej metody wyborów dyskretnych. W metodzie tej respondenci dokonują˛ wyborów pomiędzy hipotetycznymi alternatywami, opisanymi przy pomocy zestawu mierzalnych cech. W naszym przypadku wśród cech znajdować´ się będą zmienne reprezentujące zróżnicowany poziom: i) obowiązków informacyjnych dostawcy usług, ii) sprzeciwu wobec profilowania i wtórnego udostępniania danych, iii) przenaszalności danych między dostawcami, iv) możliwości usunięcia danych. Na podstawie zadeklarowanych wyborów, poprzez oszacowanie funkcji użyteczności, można poznać preferencje konsumentów wobec różnych mechanizmów kontroli prywatności. Dzięki temu w dalszym kroku można dokonać wyceny relatywnego znaczenia poszczególnych atrybutów w kategoriach pieniężnych. Oszacowana funkcja użyteczności umożliwia też ocenę efektów różnych regulacji takich jak np. wprowadzenie obowiązku niezwłocznego usuwania przez dostawcę usług internetowych naszych danych osobowych na żądanie. Dużą zaletą zastosowanego podejścia jest możliwość´ zbadania korzyści płynących z konkretnych rozwiązań regulacyjnych jeszcze przed ich faktycznym wprowadzeniem. W naszym przypadku właśnie z takim scenariuszem regulacyjnym mamy do czynienia.

Badania opinii prowadzone przez Komisję Europejską pokazują, że ochrona prywatności w Internecie stanowi ważny problem dla większości unijnych obywateli. Ponad 80% z nich ma poczucie braku kontroli nad swoimi danymi osobowymi podczas korzystania z usług internetowych. Internautów niepokoją˛ konsekwencje gromadzenia, przetwarzania i wykorzystywania ich danych w innych celach niż ten, dla którego je pierwotnie zebrano.

Ponad 60% nie ufa w tym zakresie internetowym dostawcom usług. Ten niski deklarowany poziom zaufania stanowi istotną barierę dla rozwoju gospodarki cyfrowej w UE.

Polscy internauci, na tle UE, mają większe obawy odnośnie ochrony i kontroli swojej prywatności w Internecie.

Ponad 70% z nich podkreśla duże znaczenie możliwości transferu swoich danych osobowych podczas zmiany dostawcy usług internetowych (tj. platformy społecznościowe, czy chmury obliczeniowe).

W odpowiedzi na niedostawanie unijnych regulacji dotyczących prywatności do realiów gospodarki cyfrowej, w szczególności szybkiego rozwoju platform internetowych w UE trwa reforma przepisów o ochronie danych osobowych. O ile znane są już ’minimalne’ wymagania dla ochrony prywatności, to nie wiadomo jak będą wyglądać praktyczne rozwiązania dostępne dla użytkowników. Stąd wartością niniejszego projektu jest oszacowanie ekonomicznych korzyści różnych scenariuszy precyzujących poziom kontroli prywatności w Internecie. Proponowane badanie wzbogaci debatę nt. trwającej unijnej reformy prywatności w Internecie o argumenty ekonomiczne i przyczyni się do upowszechnienia najkorzystniejszych z punktu widzenia internautów rozwiązań.


Serwisy *.wne.uw.edu.pl używają plików cookies zapisywanych na komputerach użytkowników. Są one niezbędne do prawidłowego działania mechanizmów stron internetowych Wydziału Nauk Ekonomicznych UW.

Szczegółowe informacje o Polityce obsługi cookies w serwisach Uniwersytetu Warszawskiego dostępne są na stronie https://www.uw.edu.pl/polityka-obslugi-cookies-ciasteczek-w-serwisach-uw