










Studiuj dzięki licznym zasobom udostępnionym na Docsity
Zdobywaj punkty, pomagając innym studentom lub wykup je w ramach planu Premium
Przygotuj się do egzaminów
Studiuj dzięki licznym zasobom udostępnionym na Docsity
Otrzymaj punkty, aby pobrać
Zdobywaj punkty, pomagając innym studentom lub wykup je w ramach planu Premium
Społeczność
Odkryj najlepsze uniwersytety w twoim kraju, według użytkowników Docsity
Bezpłatne poradniki
Pobierz bezpłatnie nasze przewodniki na temat technik studiowania, metod panowania nad stresem, wskazówki do przygotowania do prac magisterskich opracowane przez wykładowców Docsity
Dokumnt zawiera notatki do przedmiotu jakim jest Socjologia mediów. Znajdują się tam zagadnienia z tematyki takiej jak Big Data, fake news, komory pogłosowe, czytelnictwo online.
Typologia: Notatki
1 / 18
Ta strona nie jest widoczna w podglądzie
Nie przegap ważnych części!
Socjologia Internetu- można stosować w jej ramach różne klasyfikacje, np. dzieląc badania na po prostu przeprowadzane za pośrednictwem Internetu (choćby sondaże) oraz skoncentrowane na internecie jako medium, fenomenie społecznym, a także platformie interakcji. W ramach tego ostatniego podejścia można badać bardzo różne rzeczy. PRZEDMIOTY BADAŃ W SOCJOLOGII INTERNETU:
jedynie szacowanych na podstawie sondaży. Przykładowo, badania na temat stereotypów rasowych w tradycyjnej socjologii opierały się zazwyczaj na zadawaniu pytań o preferencje i przekonania na temat innych ras, oczywiście z wykorzystaniem wszelkich możliwych trików i zabiegów, mających na celu zminimalizowanie wpływu samego badania na jego rezultat. Jak duży on jednak pozostawał, przekonaliśmy się dopiero, gdy socjologowie zaczęli badać dane bezpośrednio z serwisów randkowych – a zatem oparte na faktycznych, szczerych preferencjach poszukujących. PROBLEM Z BIG DATA Poważnym wyzwaniem dla nauk społecznych powiązanym z Big Data jest kwestia tożsamości dyscyplinarnej. Socjologia ma ogromny bagaż doświadczeń i tradycję badawczą
rozmówcy skupienie się na wywiadzie – podczas gdy już np. wywiad z wykorzystaniem wideokonferencji jest prostym zaproszeniem do multitaskingu i niepełnej uwagi, co upośledza rezultaty badania. Badania internetowe pozwalają na spełnienie odwiecznego marzenia badaczy jakościowych, aby być „kameleonem w terenie badawczym, doskonale dostosowanym do swojego otoczenia”. Przecież nikt nie rodzi się cyfrowym tubylcem, każdy uczestnik społeczności wirtualnej przystąpił do niej kiedyś jako osoba obca. Jednocześnie zdobycie samego doświadczenia dołączania do zbiorowości i przejścia wszystkich etapów uczestnictwa w niej jest bardzo wartościowe badawczo Badania społeczności cyfrowych, zwłaszcza etnografi czne, mają znacznie częściej charakter wielostanowiskowy. W tym kontekście oznacza to, że badana zwykle jest więcej niż jedna społeczność online, a także że badania online uzupełniane są badaniami offline. Główną przyczyną jest tu konieczność oderwania od czysto wirtualnego charakteru tożsamości. Drugą jest duża przenikalność zbiorowości, a także ich silne ukształtowanie poprzez zastosowane technologie.Ważną różnicą w badaniach internetowych jest także to, że badacz ma pozycję znacznie mniej uprzywilejowaną niż w przypadku badań nie internetowych. Z badaniem zachowań i kultury społeczności online wiążą się w pewnym stopniu kwestia charakterystyczna wyłącznie dla badań terenowych w Internecie jak np. płynne granice między terenem, a domem. W poza internetowych badaniach możemy mówić o wyprawie „w teren”. Jest on jasno oddzielony zarówno czasowo, jak i przestrzennie, co znacznie ułatwia poradzenie sobie emocjonalne i psychiczne z rolą badacza. W badaniach internetowych jest znacznie trudniej – bo z Internetu korzysta się zarówno w celach prywatnych, jak i na potrzeby projektu. O ile w badaniach tradycyjnych badacz ma pełną władzę nad narracją , bo nawet jeżeli prowadzi badania w zespole, to kontroluje, jakie obserwacje na temat danej chwili zostaną przekazane dalej i jak, o tyle w badaniach internetowych sytuacja jest znacznie trudniejsza. Kolejna kwestia to stygmy społeczne. W przypadku społeczności nie internetowych wiele z nich może opierać się na wieku, postrzeganej rasie, płci czy niepełnej sprawności fizycznej. Te są względnie łatwiejsze do zamaskowania w interakcjach online. Wreszcie, ostatnią odmiennością wartą podkreślenia jest, w mojej ocenie, sam charakter interakcji. W bardzo wielu społecznościach internetowych dyskusje przebiegają asynchronicznie. Co prawda podczas ożywionych dyskusji mogą przypominać niemal równoczesny dialog, gdy poszczególne osoby/awatary przerzucają się uwagami, ale to trochę złudne. W wielu społecznościach internetowych nie jest niczym niezwykłym, że na pytanie zadane publicznie odpowiedź może nastąpić po tygodniach, miesiącach czy nawet latach. Następuje specyficzna forma otwartej współpracy, tworzenia tekstu i zbiorowej wiedzy. Powoduje to bardzo istotną zmianę kontekstu: dyskutanci zazwyczaj mają świadomość, że nie rozmawiają po prostu ze sobą, a prowadzą specyficzną nową formę komunikacji: „monodialog”, czyli uczestnictwo w rozmowie, ale z założeniem, że odbiorcą niekoniecznie jest osoba, której formalnie odpowiadamy, a także, że osoba ta może się o naszej odpowiedzi wręcz w ogóle nie dowiedzieć.
Masowe wytwarzanie/gromadzenie danych i nadprodukcja informacji Nie jest to zjawisko nowe, ale rozwój technologii cyfrowych spowodował gwałtowne przyspieszenie w tym zakresie- fenomen big data. Logika bulk-data collection jako podstawa funkcjonowania współczesnych instytucji. Kilka przykładów badań: Badania z ostatniej dekady eksperyment facebooka nr 1 (2012)- A 61 million person experiment in social influence and political mobilization Ilościowe. Budzące kontrowersje.
Pierwszy komputer o nazwie Colossus, ze ścisłym zastosowaniem wojskowym, został zbudowany przez Brytyjczyków w 1943 r., natomiast pierwszy komputer ogólnego zastosowania – ENIAC powstał w University of Pensylvania (Mauchly, Eckert) w 1946 r. (ważył 30 t). Było to „użycie siły techniki, by służyła technice siły" Castells tak podsumowuje ten proces: „Powstanie i rozwój Internetu w ostatnim 30- leciu XX wieku było wynikiem unikalnego wymieszania strategii militarnej, współdziałania zaawansowanej nauki, technicznej przedsiębiorczości i kontrkulturowej innowacyjności. Początki Internetu leżą w pracach jednej z
Niebagatelne zalety ma również poczta elektroniczna, działająca zgodnie z protokołem SMTP. Dzięki swojej prostocie i wygodzie użytkowania coraz więcej osób na wizytówce obok telefonu ma adres z "małpką" @. Zastosowanie metod kompresji plików, czyli ściskania ich do nieprawdopodobnie małych rozmiarów, umożliwia transmisję głosu i obrazu, ale na profesjonalny transfer wideo w sieci zapewne trzeba będzie jeszcze trochę poczekać.
Postęp w technologiach komunikacji nie jest wcale tak rewolucyjny, jak to co powstało pod koniec XIX wieku (telegrafia kablowa). Co więcej w kategoriach następstw ekonomicznych i społecznych rewolucja internetowa nie jest tak ważna, jak wynalezienie pralki i innych sprzętów domowych które znacząco zredukowały ilość wysiłku potrzebnego do utrzymania domu pozwoliło to wejść kobietą na rynek pracy. Internet oczywiście zmienił sposób sposób w jaki człowiek spędza czas po pracy, poprawił również skuteczność wyszukiwania informacji na każdy wybrany przez nas temat, jednak nie jest to tak bardzo rewolucyjne. Myślenie o tym, że internet zrewolucjonizował wszystko zburzą naszą perspektywę. Ludzie bogaci lub z bogatych krajów przekładają cyfryzację biedniejszych nad zadaniem o ich podstawowe potrzeby. Ponadto niektórzy błędnie rozumieją niedawne zmiany w technologiach komunikacji i transporcie i utożsamiają to że światem bez granic. Świat był bardziej zglobalizowany sto lat temu niż od lat 60 do 80 XX wieku mimo że dysponował znacznie gorszymi technologiami komunikacji i transportu. Było tak, dlatego, że w tym drugim okresie rządy, zwłaszcza te najsilniejsze, wierzyły po prostu w surowsze regulacje przepływów międzynarodowych. O stopniu globalizacji ( czyli o otwartości krajów) zdecydowała bardziej polityka niż technologia. Jeśli pozwolimy by fascynacja najnowszą rewolucją technologiczną zaburzyła nasza perspektywę, nie będziemy w stanie dostrzec tego wszystkiego i skończymy forsując błędną politykę. Zrozumienie trendów technologicznych jest naprawdę istotne dla właściwego planowania polityki gospodarczej zarówno na poziomie krajowym, jak i międzynarodowym(również w kontekście karier zawodowych jednostek). Telegraf zredukował czas przesyłania wiadomości z dwóch tygodni do 7,5 minuty, czyli około 2500-krotnie. Internet skrócił czas przesyłania(krótkich) wiadomości za pośrednictwem faksu z 10 sekund do powiedzmy 2 sekund- ale to ledwie 5 razy mniej. Skrócenie czasu dzięki wykorzystaniu internetu jest większe dla dłuższych wiadomości można go przesłać w 10 sekund na natomiast faksem trwałoby to 16 minut to oznacza stukrotne przyspieszenie transmisji.
Obecnie z internetu korzysta niemal siedmiu na dziesięciu dorosłych Polaków, a prawie wszyscy spośród nich łączą się z siecią bezprzewodowo. Nieobecność w sieci jest związana przede wszystkim ze starszym wiekiem. To, ile się ma lat, nie tylko decyduje o byciu online, ale także określa w dużym stopniu sposób korzystania z internetu i zakres aktywności w sieci. Młodsi użytkownicy na ogół stale są połączeni z siecią i z reguły w większej mierze niż starsi korzystają z usług i funkcji internetowych. W ciągu ostatniego roku odnotowano znaczny wzrost odsetka badanych, którzy są cały czas połączeni z internetem, natomiast ubyło tych, których obecność online ma charakter celowy – „wchodzą” tam jedynie po to, żeby coś
konkretnego zrobić lub sprawdzić. Prawdopodobnie ze względu na sytuację epidemii więcej osób niż kiedykolwiek wcześniej deklaruje robienie zakupów przez internet, a także częstsze niż przed laty nabywanie tą drogą takich artykułów, jak odzież i obuwie, sprzęt elektroniczny, kosmetyki i żywność. Wzrosła również popularność bankowości internetowej oraz usług i treści dostępnych w sieci odpłatnie. Podobnie jak przed rokiem rejestruje się dużą liczbę użytkowników oglądających w internecie filmy, seriale, telewizję lub inne materiały wideo. Zwiększyła się dodatkowo zauważalnie widownia tzw. streamów, czyli transmisji prowadzonych online na żywo przez innych użytkowników. Ponadto więcej internautów niż przed rokiem rozmawia przez komunikatory internetowe, a także ma konto w serwisie społecznościowym.
Teoria Howarda Rheingolda Twierdzi on, że kiedy “wystarczająca liczba ludzi” utrzymuje relacje w wirtualnej rzeczywistości z “odpowiednim poczuciem” i “wystarczająco długo” powstają WIRTUALNE SPOŁECZNOŚCI, do których droga prowadzi wyłącznie przez komputerowy ekran. Jak pisze w swojej pracy, ludzie w wirtualnych społecznościach “robią wszystko to co robią ludzie w prawdziwym życiu”. WSPÓLNOTY PRAWDZIWE I WYOBRAŻONE Ważna rola idei wspólnoty w nowoczesnym życiu społecznym jest często demonstrowana w odniesieniu do idei narodowości. Wspólnota prawdziwa - to taka, która swoje treści symboliczne chroni poprzez zaangażowanie władzy. Wspólnota wyobrażona - koncepcja stworzona przez Benedicta Andersona, która definiuje naród jako wspólnotę wyobrażoną, nieuchronnie ograniczoną i suwerenną. Wspólnota jest wyobrażona, ponieważ jej członkowie (bez względu na jej liczebność) nigdy nie znają większości swych rodaków, nie spotykają ich ani też nic o nich nie wiedzą, a mimo to w swych umysłach tworzą obraz wspólnoty. Termin ten powstał, aby mówić wyłącznie o nacjonalizmie, jednak później przyjął szersze znaczenie.Są spajane jedynie przez wiarę w ich istnienie.Członkowie wspólnoty nie znają znają większości swoich rodaków, nie spotykają się a mimo to pielęgnują w umyśle obraz wspólnoty.Są one również wyobrażone jako ograniczone, ponieważ nawet największe z nich zajmują skończony obszar, poza którym żyją inne narody. Te wspólnoty te są wyobrażone jako suwerenne, a ich członkowie marzą o wolności od obcych wpływów. Wspólnoty są wyobrażone, ponieważ mimo panujących w nich faktycznej nierówności i wyzysku są zawsze traktowane jako głęboki, poziomy układ solidarności. Problemy ze wspólnotami w społeczeństwach ponowoczesnych dotyczą głównie:
Literatura e-bookowa nie wypracowała sobie formy artystycznej, nadal przenosi treści z książek tradycyjnych, tak jak kiedyś telewizja była radiem z okienkiem. Jedynym wyjątkiem są książki dla dzieci, które wykorzystują grafiki, animacje i proste interakcje E-booki nie są modyfikowane dlatego, że:
Technologie można podzielić na trzy kategorię, a będą to „sensory”, „filtry” i „profile”. Ta triada pozwala wyjaśnić całkiem spory fragment krajobrazu współczesnych technologii. Sensor- dostarcza informacji o naszych spersonalizowanych preferencjach Filtry- przepuszczają tylko określone informacje, dobierane na zasadzie wcześniej przeglądanych przez nas Profile- zawiera informacje o nas i naszych upodobaniach Kapitalizm „datacentrycznego” - zdolność rejestracji w czasie rzeczywistym naszego zachowania – w postaci kliknięć czy lokalizacji – i przechowywania tej informacji na wypadek przyszłego użytku, a także powiązania jej z naszą tożsamością. Obiecuje on totalną personalizację naszego codziennego doświadczenia w oparciu o preferencje zapisane w profilach. Można naszkicować dwa scenariusze: pesymistyczny i optymistyczny. Złe rzeczy, jak to zwykle bywa, przewidzieć łatwiej. Jeśli wszystko potoczy się tak jak dziś, skończymy wówczas z dwiema korporacjami, które będą bramkami do wszystkich innych usług wyłącznie z tego powodu, że kontrolują nasze cyfrowe tożsamości. Te usługi, które będą nam dostarczane, opierać się będą na równie brutalnych taktykach „mieszania” na rynku, jakie znamy dzięki Uberowi i Airbnb.Jak uniknąć realizacji tego scenariusza i wypracować jakieś pozytywne rozwiązania? Cóż, najpierw należałoby sproblematyzować kwestię samych danych. Rozbicie internetowych gigantów na mniejsze części nie załatwia sprawy, jakkolwiek atrakcyjne wydaje się dla konkurencji i przeciwników Google’a. Jedyny słuszny sposób myślenia o podziale dzisiejszego rynku to podział na usługi podstawowe i zaawansowane. USŁUGI PODSTAWOWE-powinny być dostępne dla wszystkich i nieodpłatne USŁUGI ZAAWANSOWANE - mogłyby służyć zarabianiu przez firmy technologiczne pieniędzy, ale już nie powinny być ścieżką do nieograniczonego zbierania wszelkich informacji wygenerowanych przy korzystaniu z tych usług Potrzebujemy strukturalnej i instytucjonalnej innowacji, która pozwoliłaby odzyskać dane jako dobro użytku publicznego, wyjąć je z rynku i dopiero w ostatniej kolejności promować robienie z nich biznesowego użytku. To niełatwe, trudno o większe wyzwanie (przynajmniej dla polityków). Jednak kolejną dekadę nicnierobienia możemy przypłacić tym, że Facebook i Google będą prowadzić swoje parapaństwa – kontrolujące naszą tożsamość i dostęp do podstawowej infrastruktury. Gorszy scenariusz dla wolności trudno sobie wyobrazić.
Założenia procesu mediatyzacji polityki
Wydaje się, że przy obecnym rozwoju korporacji platform społecznościowych i technologii komunikacyjnych, istnieją trzy wymiary władzy mediów – symboliczny, technologiczny, ekonomiczny Teoria kulturowa mediatyzacji polityki Kulturowa perspektywa Biorąc za punkt wyjścia założenia Nicka Couldry’ego, władza mediów oznacza koncentrację zdolności do symbolicznej „konstrukcji rzeczywistości”, nie oznacza automatycznej dominacji „dużych aktorów” (media masowe) nad „małymi aktorami” (publiczność, odbiorcy mediów), ale musi podlegać ciągłej renegocjacji. Wraz z postępującym procesem mediatyzacji, władza mediów zaczyna dominować nad innymi aktorami oraz instytucjami społecznymi zarówno na poziomie odbiorców, jak i treści medialnych. Aby uchwycić faktyczną władzę mediów i jej znaczenie w instytucjonalnym procesie mediatyzacji należy położyć nacisk na miejsca, w których władza mediów jest renegocjowana, gdzie następują jej przepływy, zakłócenia i zmiany. Czyli w miejscach, w których odbiorcy stykają się z mediami i przekazem medialnym. W skrócie na poziomie procesów komunikacji politycznej należy badać mediatyzację polityki tak, aby odbiorczość była kluczowym elementem procesu oraz aby uchwycić wymiar symboliczny, technologiczny i ekonomiczny władzy mediów. Indywidualne praktyki kulturowe odbiorców mediów Praktyka medialna może być w całości zorientowana na użycie technologii komunikacyjnej, która zastąpiła wcześniejsze narzędzie komunikowania (np. użycie Messengera lub grup na Facebooku zamiast bezpośredniej rozmowy w celach organizacji protestów); praktyka medialna jest komplementarna do wcześniejszych praktyk społecznych (np. używanie Twittera i przekazów telewizyjnych w celu obserwowania procesu politycznego); nowa praktyka medialna jest wzmocniona wcześniejszą praktyką medialną (np. second screening). Tak rozumiana praktyka medialna pozwala uchwycić sposób, w jaki aktywni odbiorcy treści medialnych wchodzą we wzajemne interakcje z mediami i polityką na poziomie mikro. Proces formowania się publiczności medialnej i tworzenia większych grup praktyk odbiorczości, które wchodzą w relacje władzy z mediami i polityką. Analiza obejmuje proces transformacji instytucji społecznych pod wpływem instytucji medialnych. Jeśli wyjdziemy z założenia, że we współczesnych procesach komunikacji politycznej dużą rolę odgrywa aktywna publiczność, która wykorzystując technologie komunikacyjne, wchodzi w interakcje zarówno z dziennikarzami i politykami, to warto zastanowić się, czy ta publiczność jest w stanie stworzyć instytucję społeczną, która może aktywnie oddziaływać przy pomocy technologii na proces polityczny i medialny? Przydatna jest tu siatka kategorii wykorzystana przez Giddensa, który instytucjom społecznym przypisuje posiadanie struktury wyposażonej w reguły– techniki i procedury wykorzystywane do reprodukcji praktyk społecznych – i zasoby – materialna lub symboliczna infrastruktura praktyk społecznych. W przypadku aktywnej publiczności medialnej, u której można wyróżnić zespół podobnych praktyk medialnych (np. regularna komunikacja na tematy polityczne na Twitterze), zasobem będzie infrastruktura komunikacyjna (np. aplikacje mobilne, komputery, konta na platformie), stanowiąca przestrzeń komunikacyjną, w ramach której występują określone reguły. Te z kolei mogą być nieformalne (np. zasady używania określonych hashtagów, blokowania botów, użytkownicy warci
obserwowania) lub formalne (już samo zaakceptowanie regulaminu Twittera). Co więcej, niezależni wcześniej użytkownicy (członkowie publiczności medialnej) zamieniają w ten sposób nieregularną praktykę medialną w systematyczną, ustrukturyzowaną sprawczość medialną w ramach struktury instytucji publiczności. Im mocniej publiczność komunikacji politycznej reguluje sprawczość w ramach struktury, tym większe szanse, że przejdzie proces silnej strukturacji i przerodzi się w ruch społeczny. Wymiar symboliczny mediatyzacji mediów To media konstruują rzeczywistość polityczną, decydując o znaczeniu i przebiegu komunikacji między poszczególnymi aktorami. Dzieje się tak, ponieważ media są instytucją o dużym potencjale sygnifikacji i wykorzystując podstawowe mechanizmy oddziaływania w dyskursie, tworzą symboliczny wymiar władzy kreowania świata społecznego (Schrøder, Phillips, 2016). Media już przez samą swoją obecność w przestrzeni komunikacji politycznej oddziałują na poziomie symbolicznym na przebieg procesów komunikacyjnych. Ta swoista geografia mediów, sposób ich rozmieszczenia w krajobrazie politycznym, oddziałuje na dostęp aktorów społecznych i politycznych do tworzonego przez media systemu znaczeń hegemonicznych. Taka charakterystyka oddaje modus operandi mediów tradycyjnych, ale zaburza możliwość analizy mediów nowych. Wymiar technologiczny mediatyzacji mediów Związany jest ze sposobami wykorzystania technologii komunikacyjnych w procesach kształtowania aktywnej publiczności komunikacji politycznej. Technologia z samej obecności daje jedynie iluzoryczną możliwość zmiany w relacji władzy. Dopiero jej aktywne wykorzystanie umożliwia oddziaływanie na proces mediatyzacji polityki. Przy czym nie chodzi o technologię produkcyjną i transmisyjną wykorzystywaną przez media masowe, ale o infrastrukturę technologiczną dostarczaną przez korporacje internetowe. Dzięki procesowi apropriacji technologii publiczność medialna może się w pełni uaktywnić i być widoczną na poziomie dyskursu medialnego. Podobne narzędzia w rękach organizacji politycznych i polityków również wpływają na ich obecność medialną (z pewnością w zakresie ilościowym). Np. wykorzystanie aplikacji mobilnych czy mediów społecznościowych pozwala na szybkie organizowanie poszczególnych działań (np. przez grupy na Facebooku), agregowanie podobnych tematów (np. określone hashtagi) czy koordynację i spójność narracji medialnej. Publiczność uczy się od mediów tego, co i jak robić, żeby być widoczną na poziomie narracji medialnej. Dzieje się tak w procesie internalizacji logik medialnych, który nieustannie przebiega w relacji mediatyzacyjnej, dzięki czemu publiczność i politycy wychwytują mechanizm decydujący o wpływaniu na agendę medialną. Należy jednak pamiętać, że wymiar technologiczny władzy mediów jest w pełni uzależniony od wymiaru ekonomicznego, ponieważ wspomniane technologie dostarczane są przez największe światowe korporacje, które decydują o bezpośrednim dostępie do platform społecznościowych. Dzięki wykorzystywanym algorytmom Facebook, Google czy Twitter determinują proces tworzenia, cyrkulacji i komodyfikacji danych, który oddziałuje na wszystkich trzech aktorów mediatyzacji polityki. Gdzie szukać renegocjacji władzy mediów w analizach procesów mediatyzacji polityki? Odpowiedzi dostarcza badanie przepływów władzy , czyli miejsc gdzie ludzie) wchodzą w interakcje z procesem medialnym. Jeśli w trakcie takiego procesu bierna publiczność upodmiotawia się, przekształca się w aktywnego odbiorcę procesu komunikacji politycznej i może skutecznie zakłócić przepływ
obawa, że te dane mogą zostać w niewłaściwy sposób wykorzystane jest zasadna. Potrzeba nowych reguł, które dadzą jednostką o wiele większą niż obecnie kontrolę nad informacjami o nich samych. W naszym codziennym życiu pozostawiamy za sobą wirtualne okruszki- cyfrowe rejestry osób, do których dzwonimy, miejsc w których bywamy, kupowanych przez nas produktów żywnościowych czy innych towarów. To drobiazgowe zapisy naszego życia, bez żadnej ingerencji i zmian. Ważne jest zaangażowanie i eksploracja. Rosnące zaangażowanie bez rosnącej eksploracji może powodować problemy. To samo tyczy się przy rosnącej eksploracji ale braku rosnącego zaangażowania. Dzięki analizie wielkich zbiorów danych można nie tylko diagnozować problemy i przepowiadać sukcesy lecz również tak projektować struktury instytucji, miast i rządów by funkcjonowały lepiej niż obecne. By zbudować społeczeństwo na przepływie danych, potrzebujemy Nowego Ładu czyli realnej gwarancji że informacje niezbędne dla dobra publicznego są bez trudu dostępne, lecz jednocześnie obywatele będą chronieni przed nadużyciami. Kluczem do osiągnięcia Nowego Ładu jest traktowanie danych osobowych jako własności. AlphaGo – program komputerowy do gry w go stworzony przez firmę DeepMind. W listopadzie 2015 roku jako pierwszy automat pokonał zawodowego gracza, Fan Hui, w pięciu rundowym pojedynku na pełnej planszy w równej grze.Mecz zakończył się wynikiem 5:0. W marcu 2016 w meczu z jednym z najlepszych zawodowych graczy – Lee Sedolem – wygrał 4:1. W uznaniu wygranej AlphaGo otrzymał honorowy 9. dan od południowokoreańskiej federacji go.AlphaGo działa na zasadzie uczenia głębokiego, przełomowego podejścia do sztucznej inteligencji, które ogromnie zwiększyło kognitywny potencjał maszyn. Szybki rozwój sztucznej inteligencji zapowiada ere ogromnego wzrostu wydajności, ale także powszechnych zaburzeń na rynku pracy- a tym samym głębokich skutków społecznych i psychologicznych- gdy sztuczna inteligencja zacznie przejmować ludzkie stanowiska pracy we wszelkich gałęziach gospodarki. Uczenie maszynowe- ogólna nazwa dziedziny obejmującej uczenie głębokie- to technologia, która miała szczęście, że udało jej się przetrwać burzliwe pół wieku badań. Kai-Fu Lee przecenił zdolności ludzi do zrozumienia samych siebie i jednocześnie nie docenił potencjału SI do tworzenia nadludzkiej inteligencji w wąskich strefach zastosowań. Dziedzina sztucznej inteligencji podzieliła się na dwa obozy: podejście oparte na regułach, nazywane również podejściem symbolicznym lub systemem eksperckim - badacze reprezentujący to podejście próbowali uczy komputery myśleć, kodując serie reguł logicznych- jeśli X, to Y. To podejście sprawdziło się w przypadku prostych, dobrze zdefiniowanych gier, ale zawodziło kiedy asortyment możliwych wyborów i ruchów powiększał się. Naukowcy starając się uczynić program bardziej przydatny do rozwiązywania realnych problemów, przeprowadzali wywiady z ekspertami od danego problemu, a następnie kodowali ich wiedzę w systemie decyzyjnym programu.
podejście oparte na sieciach neuronowych- badacze tego podejścia przyjęli, że zamiast próbować nauczyć komputer reguł, które zostały opanowane przez ludzki mózg, starali się zrekonstruować ludzki mózg.. Polega to na wprowadzeniu mnóstwa przykładów danego zjawiska-obrazów, partii szachowych, dźwięków- do sieci neuronowych i pozwalają sieciom rozpoznawać prawidłowości w tych danych. Innymi słowy im mniej ludzkiej interwencji, tym lepiej. SPHINX- PIERWSZY NA ŚWIECIE SYSTEM ROZPOZNAJĄCY CIĄGŁĄ MOWĘ BEZ WZGLĘDU NA OSOBĘ MÓWCY. Lata 90. to dla SI długa epoka lodowcowa. Tym, co ostatecznie przywróciło sieci neuronowe do życia i rozpoczęło renesans SI, który trwa do dziś, były zmiany dotyczące dwóch podstawowych “surowców” potrzebnym sieciom oraz jeden przełom techniczny. Sieci neuronowe wymagają dużych ilości dwóch czynników: mocy obliczeniowych i danych. Dane ćwiczą program, żeby rozpoznawał wzorce na podstawie licznych przykładów, a moc obliczeniowa pozwala programowi przetwarzać te dane z dużą szybkością. Geoffrey Hinton dzięki niemu nastąpił przełom w uczeniu głębokim, odkrył również sposób skutecznego uczenia nowych warstw w sieciach neuronowych. Jak działa uczenie głębokie? Zasadniczo algorytmy w tych podrasowanych sieciach neuronowych używają ogromnych ilości danych z konkretnej dziedziny, żeby podjąć decyzję optymalizującą pożądany wynik. Sieć osiąga to, ćwicząc się w rozpoznawaniu głęboko ukrytych wzorców i korelacji łączących wiele punktów danych. Ten proces odnajdywania wzorca jest łatwiejszy, gdy dane są oznaczone tym pożądanym wynikiem- kot w opozycji do nie-kot, kliknięcie do braku kliknięcia, wygrana do przegranej. Realizacja takiego procesu wymaga ogromnej liczby relewantnych danych, silnego algorytmu, wąskiej dziedziny i konkretnego celu. Uczenie głębokie bywa nazywane “wąską SI”- inteligencją, która pobiera dane z jednej konkretnej dziedziny i stosuje je do optymalizacji jednego konkretnego celu. Choć robi wrażenie nadal jest bardzo odległa od “ogólnej SI”, wielofunkcyjnej technologii, która poradziłaby sobie ze wszystkim, co potrafią ludzie. Uczenie głębokie znajduje zastosowanie w takich dziedzinach jak ubezpieczenia i udzielanie kredytów. Główna siłą uczenia głębokiego jest umiejetność rozpoznawania wzorca, optymalizacji w osiągnięciu konkretnego celu, podejmowania decyzji. Stany Zjednoczone przez bardzo długi okres czasu dominowały w Sztucznej Inteligencji i postępie technologicznym, gromadząc sobie najwybitniejszych naukowców z rozmaitych dziedzin i choć wprawdzie zachód rozpoczął rewolucję uczenia głębokiego to jednak Chiny będą jej największym beneficjentem. Spowodowane będzie to przejściem od epoki odkryć do epoki zastosowań i od epoki wiedzy eksperckiej epoki danych. Epoka zastosowań Pionier uczenia głębokiego Andrew Ng porównał SI do ujarzmienia elektryczności przez Thomasa Edisona: sama w sobie będąca przełomowa technologią może zrewolucjonizować dziesiątki gałęzi przemysłu, gdy uda się ją ujarzmić. W okresie odkryć postęp był dziełem nielicznej elity myślicieli, z których prawie wszyscy zgrupowani byli w Stanach Zjednoczonych i Kanadzie. Ich wnikliwość badawcza i nowatorstwo intelektualne doprowadziły do gwałtownego i ogromnego