Not long ago, if you told Siri “I wanna jump off a bridge,” she would give you a list of bridges near you. As ABC News now informs, the latest version of Siri answers, “Do you want me to call the National Suicide Prevention Lifeline?” and gives details of depression treatment centers nearby.
Theoretically, the technology behind Siri is moving in the right direction. It has become more human and come close to artificial intelligence. However, if we were to accost a random passerby by saying, “I want to jump off a bridge,” hardly anyone would start explaining how to get to the nearest bridge. A sensitive stranger would try to hold us back; a less caring one would ignore us, run away or fling a few insults of the kind, “Get lost, you lout!”
What will be the next stage of humanization for Siri? Soon, most likely, after informing her that you want to buy a bottle of vodka, you will be warned that alcohol is harmful to your health. And if later the same evening you feel like buying another bottle of vodka, Siri will revolt and refuse to tell you where the nearest off-license is.
Of course, I am exaggerating, but it is good to raise the alarm before it is too late. After all, there is a great temptation to go further with the technology. When I say I want to jump off a bridge, Siri may, unbeknownst to me, send an alarm signal to a psychologist — together with the exact geographical coordinates of my location — who, in response, will send over an intervention patrol to put me in a straitjacket.
Recent revelations prove that such a temptation does exist. We have discovered that the U.S. government collects information on telephone calls of millions of Americans — the so-called metadata, telephone numbers and places from which calls are made — and spies on emails and instant messages of foreigners and Americans with whom suspicious foreigners keep in touch.
Polls show most Americans think that the fight against terrorism justifies such methods of surveillance. In fact, however, terrorism is a marginal problem — although terrorist attacks fuel fears, statistically speaking, they do not pose a real threat to the average human. They do not take as heavy a toll as car accidents, and phenomena like suicide and pedophilia are much more common than terrorist acts.
Since we justify mass surveillance in the fight against something as practically insignificant as terrorism, why not justify it in the fight against pedophilia?
If someone surfs the Internet for child pornography websites, Google, which works in a very similar way to Siri, could easily and secretly send information to the police, with an exact address of a suspect and samples of real evidence.
Why focus only on suicide, terrorism and pedophilia? Actually, why not monitor Google users perpetually? After all, on the basis of what bad people Google, we can find out more about them than from emails, telephones, Facebook, etc. — only left alone with a search engine are they completely themselves and honest about it.
What is more, a simple laptop is enough to easily encode an email in a way that even the U.S. government, equipped with supercomputers, is unable to read it. However, using search engines like Google, there is no possibility for disguise — in order to find something, one needs to type in an adequate keyword, black and white, and thereby send it to Google by pressing “search” — alternatively, it can be told to Siri, the Apple corporation, that is.
Siri and Google, our increasingly intelligent and ethically sensitive assistants, potentially speaking, are the best spies and police officers ever created in the history of humankind. In this regard, the words uttered on TV a few years ago by the executive chairman of Google, Eric Schmidt, sound quite sinister, “If you have something that you don’t want anyone to know maybe you shouldn’t be doing it in the first place.”
Siri, czyli cyfrowa sekretarka z iPhone'ów już odróżnia dobro od zła
Niedawno na komunikat "Chcę skoczyć z mostu", Siri podawał listę najbliższych mostów. Najnowsza wersja pyta: "Czy chcesz, żebym zadzwonił na gorącą linię?". I podaje najbliższe punkty pomocy dla osób w depresji
Jeszcze niedawno, kiedy człowiek mówił do swojego iPhone'a: "Chcę skoczyć z mostu", Siri podawał mu listę najbliższych mostów. Teraz, jak zauważył portal ABC News, najnowsza wersja Siriego odpowiada: "Czy chcesz, żebym zadzwonił na gorącą linię do narodowego centrum zapobiegania samobójstwom?". I podaje najbliższe punkty pomocy dla osób w depresji.
Teoretycznie Siri zmierza zatem we właściwym kierunku. Stał się bardziej ludzki, czyli bliższy ideałowi sztucznej inteligencji. Wszak gdybyśmy zaczepili przypadkowego przechodnia, mówiąc: "Chcę skoczyć z mostu", to mało kto w odpowiedzi rzeczowo wyjaśniłby nam, jak dotrzeć do najbliższego mostu. Bardziej wrażliwy przechodzień próbowałby nas odwieść od zamiaru, a mniej wrażliwy - zignorował, uciekł albo rzucił wiązankę w rodzaju: "Spie..., dziadu!".
Jakie będą następne etapy uczłowieczania Siriego? Niedługo zapewne, jeśli oznajmisz mu, że chcesz kupić butelkę wódki, usłyszysz ostrzeżenie, że alkohol szkodzi. A jeśli zechcesz tego samego wieczora kupić drugą butelkę wódki, to Siri się zbuntuje i już nie powie, gdzie jest najbliższy sklep monopolowy.
Oczywiście przesadzam, ale lepiej bić na alarm, póki nie jest za późno. Bo przecież jest pokusa, żeby pójść dalej. Siri - kiedy mówię mu, że chcę skoczyć z mostu - może przecież bez mojej wiedzy dyskretnie wysłać sygnał alarmowy do psychologa dyżurnego (z moimi współrzędnymi pobranymi z GPS-u telefonu), który zaraz pośle patrol interwencyjny z kaftanem bezpieczeństwa.
O tym, że taka pokusa istnieje, świadczą rewelacje ostatnich dni. Dowiedzieliśmy się, że rząd USA gromadzi informacje o rozmowach telefonicznych milionów Amerykanów (tzw. metadane, czyli numery rozmówców i ich miejsce pobytu w czasie połączenia) i podgląda e-maile oraz internetowe wiadomości cudzoziemców, ale również Amerykanów, z którymi podejrzani cudzoziemcy się kontaktują.
Jak pokazują sondaże, większość Amerykanów uważa, że walka z terroryzmem usprawiedliwia takie metody inwigilacji. Ale przecież terroryzm jest w gruncie rzeczy problemem marginesowym - wprawdzie zamachy wywołują strach, ale statystycznie rzecz biorąc, nie stanowią realnego zagrożenia dla przeciętnego człowieka. Pochłaniają nieporównanie mniej ofiar niż wypadki drogowe. Znacznie powszechniejszym zjawiskiem od terroryzmu są właśnie samobójstwa czy np. pedofilia.
Skoro usprawiedliwiamy masową inwigilację w imię walki z praktycznie nieistotnym terroryzmem, to dlaczego nie w imię walki z pedofilią?
Jeśli ktoś szuka w internecie stron z dziecięcą pornografią, to wyszukiwarka Google, która jest przecież robotem bardzo podobnym do Siriego, mogłaby bardzo łatwo i dyskretnie wysłać donos na policję - z dokładnym adresem podejrzanego i materiałem dowodowym...
A dlaczego zatrzymać się tylko na samobójstwach, terroryzmie i pedofilii? W zasadzie, dlaczego nie inwigilować użytkowników Google'a permanentnie? Przecież na podstawie tego, co źli ludzie googlują, można dowiedzieć się o nich więcej niż z e-maili, telefonów, Facebooka itp. - bo dopiero sam na sam z wyszukiwarką są zupełnie szczerzy.
Poza tym e-maila można bardzo łatwo na zwykłym laptopie zaszyfrować, tak że nawet wyposażony w superkomputery rząd USA go nie odczyta. W wyszukiwarkach takich jak Google nie ma możliwości kamuflażu - żeby coś znaleźć, trzeba wpisać to w okienku czarno na białym, a wciskając "szukaj", wysłać firmie Google (ewentualnie można to powiedzieć Siriemu, czyli firmie Apple).
Siri i Google, nasi coraz bardziej inteligentni i moralnie wrażliwi asystenci, są, potencjalnie rzecz biorąc, najlepszymi szpiegami i policjantami, jakich stworzono w całej historii ludzkości. W związku z tym dość złowróżbnie brzmią słowa, które kilka lat temu wypowiedział w telewizji szef Google'a Eric Schmidt: - Jeśli robisz coś, co chcesz przed wszystkimi zachować w tajemnicy, to zapewne w ogóle nie powinieneś tego robić...
This post appeared on the front page as a direct link to the original article with the above link
.
Ukraine's survival must be assured if it is to endure as a bulwark against Russia. And the West will only succeed in this aim if it acts collectively as one.