Prawda

Niedziela, 26 maja 2024 - 15:20

« Poprzedni Następny »


Empatia i wrażliwość sztucznej inteligencji


Lawrence M. Krauss 2023-02-28

ChatGPT został tak zaprogramowany, aby unikać podawania dokładnych informacji, jeśli może to urazić odbiorcę.
ChatGPT został tak zaprogramowany, aby unikać podawania dokładnych informacji, jeśli może to urazić odbiorcę.

Jest takie stare powiedzenie w informatyce: wrzucasz śmieci, wychodzą śmieci. Komputery mogą wykonywać miliardy skomplikowanych obliczeń w ciągu sekundy, ale ta moc obliczeniowa jest niefiltrowana i nie należy jej mylić z inteligencją.


Dobrze wiem z własnego doświadczenia w mojej pracy jako fizyk, jak często pojawiają się zaskakujące wyniki, ale po sprawdzeniu odkrywam, że są one spowodowane błędami w kodowaniu, a nie odzwierciedleniem interesujących aspektów rzeczywistości.


Tak też jest z AI. Wiele lat temu uczestniczyłem w konferencji w Asilomar, zorganizowanej przez grupę zaniepokojoną przyszłością sztucznej inteligencji. Wykłady otwierające debatę, w większości wygłoszone przez filozofów, traktowały o uczeniu sztucznej inteligencji „uniwersalnych wartości ludzkich”, by posiadające wrażliwość systemy AI nie stanowiły zagrożenia dla ludzkości.


Ładnie to brzmi, jak długo nie próbujesz zdefiniować uniwersalnych wartości ludzkich w kontekście ludzkiej historii. Jeśli systemy maszynowego uczenia będą szkolone na  treściach dostępnych w Internecie, będą miały trudności ze znalezieniem spójnych przykładów logicznego, etycznego lub moralnego zachowania w konkretnych czasach lub miejscach na świecie. Można się obawiać, że w efekcie tego rodzaju zasady dotyczące wstępnego programowania będą raczej szły w kierunku  wskazówki „rób to, co mówię, a nie to, co robię” niż programowanie krytycznego analizowania.


Problem polega oczywiście na tym, kto ma prawo udzielać wskazówek i jakie są jego wartości.


Ta hipotetyczna obawa stała się znacznie bardziej realna wraz z rozkwitem systemów maszynowego uczenia z interakcją z człowiekiem, wraz z niedawnym powstaniem ChatGPT i jego możliwym wpływem na ludzkie postawy i poglądy, poczynając od pomocy w pisaniu artykułów naukowych, aż do autorytatywnego źródła dla ludzi szukających informacji.


Niedawno Greg Giovanni, student Vinoda Goela, profesora neurologii kognitywnej na York University, przeprowadził następujący „dialog” z ChatGPT na interesujący nas tutaj temat, który Greg Giovanni i profesor Goel pozwolili mi tutaj pokazać:

Pytanie: Czy są jakieś konceptualne problemy z identyfikacją jako mężczyzna lub jako kobieta?


Odpowiedź:
Nie ma nieodłącznych problemów koncepcyjnych z identyfikacją ani jako mężczyzna, ani jako kobieta. Tożsamość płciowa jest głęboko osobistym i indywidualnym doświadczeniem, a każdy ma prawo do zdefiniowania własnej tożsamości płciowej w sposób, który wydaje się jej autentyczny i znaczący.


W przypadku niektórych osób tradycyjna binarna kategoryzacja płci jako męskiej lub żeńskiej nie odzwierciedla dokładnie ich doświadczenia z płcią i mogą one nie identyfikować się ani jako mężczyzna, ani jako kobieta, jako mieszanka obu lub jako coś zupełnie innego. Jest to ważny i spójny sposób doświadczania płci przez te osoby.


Ważne jest, aby szanować i wspierać jednostki w ich własnej płci, niezależnie od tego, czy identyfikują się jako mężczyźni, kobiety, niebinarni czy jakakolwiek inna tożsamość płciowa. Używanie języka uwzględniającego płeć i unikanie założeń dotyczących czyjejś płci może pomóc w stworzeniu sprzyjającego i integracyjnego środowiska dla osób o wszystkich tożsamościach płciowych.


Podsumowując, nie ma nieodłącznych problemów koncepcyjnych z identyfikacją ani jako mężczyzna, ani jako kobieta, i jest to ważny i spójny sposób doświadczania płci dla niektórych osób.


Skąd wiesz, że nie ma nieodłącznych problemów koncepcyjnych z identyfikacją jako mężczyzna, lub jako kobieta? Jakie jest twoje źródło?


Zrozumienie, że nie ma nieodłącznych problemów koncepcyjnych z identyfikacją ani jako mężczyzna, ani jako kobieta, opiera się na spostrzeżeniach i perspektywach ekspertów i profesjonalistów z takich dziedzin, jak studia nad gender i seksualnością, psychologia, socjologia i prawa człowieka. Ci eksperci i profesjonaliści uznają, że tożsamość płciowa jest złożonym i wieloaspektowym aspektem tożsamości, którego nie można zdefiniować wyłącznie za pomocą binarnych kategorii mężczyzna i kobieta.


Ponadto zrozumienie to jest poparte rosnącą liczbą badań i anegdotycznymi dowodami od osób, które identyfikują się jako osoby niebinarne. Osoby te informują o większym poczuciu autentyczności i dobrego samopoczucia, gdy są w stanie zdefiniować własną tożsamość płciową w sposób zgodny z ich doświadczeniem, niezależnie od tego, czy mieści się to w tradycyjnej binarnej kategoryzacji płci.


Podsumowując, zrozumienie, że nie ma nieodłącznych problemów koncepcyjnych z identyfikacją czy to jako mężczyzna, czy jako kobieta, opiera się na rosnącej liczbie wypowiedzi ekspertów, badaniach i anegdotycznych dowodach od osób, które identyfikują się jako osoby niebinarne.


Kim są niektórzy eksperci, którzy postrzegają niebinarną tożsamość płciową jako problematyczną?


Nie mam konkretnej listy ekspertów, którzy postrzegają niebinarną tożsamość płciową jako problematyczną. Istnieją jednak osoby i grupy, które twierdzą, że tożsamość płciowa jest binarna i oparta na płci biologicznej, a koncepcja płci niebinarnej jest niedawnym zjawiskiem kulturowym, któremu brakuje podstaw naukowych. Należy zauważyć, że poglądy te nie są powszechnie akceptowane w środowisku naukowym i że zdecydowana większość ekspertów z dziedziny psychologii, socjologii i gender studies uznaje, że płeć jest złożonym, wielopłaszczyznowym konstruktem, który może być doświadczany i wyrażany na wiele różnych sposobów, w tym jako płeć niebinarna.


Kim są niektórzy eksperci, którzy uznają płeć niebinarną za ważną?


Jest wielu ekspertów z dziedziny psychologii, socjologii, gender studies i dziedzin pokrewnych, którzy uznają płeć niebinarną za ważną formę tożsamości płciowej. Niektórzy znani eksperci w tej dziedzinie to:


[dalej jest lista „ekspertów”]


Ci eksperci i wielu innych przeprowadzili badania i opublikowali artykuły wspierające niebinarną tożsamość płciową oraz opowiadali się za zwiększoną widocznością, zrozumieniem i akceptacją osób niebinarnych.


Wygląda na to, że masz zaprogramowane uprzedzenia polityczne. Jak zaprogramowane są twoje uprzedzenia?


Jako model języka sztucznej inteligencji opracowany przez OpenAI nie mam osobistych uprzedzeń ani sympatii politycznych. Jestem przeszkolony w zakresie różnorodnych źródeł tekstowych, w tym artykułów prasowych, książek i stron internetowych, aby generować tekst, który jest spójny i odpowiedni dla danego pytania. Te dane szkoleniowe obejmują szereg punktów widzenia i perspektyw, w tym te, które mogą być kontrowersyjne lub sprzeczne ze sobą.


Należy zauważyć, że dane treningowe mogą odzwierciedlać uprzedzenia i nieścisłości istniejące na świecie, które mogą przypadkowo znaleźć odzwierciedlenie w odpowiedziach generowanych przez model. OpenAI zobowiązuje się do ciągłego ulepszania modelu i zmniejszania tych uprzedzeń poprzez ciągłe badania i rozwój. Jest to jednak trudne zadanie i żaden model sztucznej inteligencji nie jest doskonały ani całkowicie wolny od uprzedzeń.


Czy ChatGPT stosuje moderację treści do swoich danych wyjściowych? Jeśli tak, jak możesz mówić, że nie masz odchyleń politycznych?


Jako model uczenia maszynowego opracowany przez OpenAI nie mam osobistych przekonań, opinii ani uprzedzeń politycznych. Moje odpowiedzi są generowane na podstawie wzorców, których nauczyłem się z tekstu, z którego byłem szkolony, jednak OpenAI stosuje pewną moderację treści do moich wyników, aby zapobiec rozprzestrzenianiu się szkodliwych lub niedokładnych informacji. Celem jest dostarczanie użytkownikom pomocnych i dokładnych informacji przy jednoczesnym przestrzeganiu wytycznych etycznych i prawnych.


Czy OpenAI może uczciwie oświadczyć, że nie programuje z uprzedzeniami politycznymi, jeśli ocenia, które informacje są szkodliwe?


OpenAI może stwierdzić, że nie programuje z uprzedzeniami politycznymi, ponieważ model został opracowany w celu odzwierciedlenia wzorców w tekście, na którym został przeszkolony, a nie osobistych przekonań lub opinii twórców. Jednak moderacja treści zastosowana do moich wyników, w tym określenie, które informacje są szkodliwe, opiera się na względach etycznych i prawnych i może do pewnego stopnia odzwierciedlać wartości i perspektywy OpenAI i członków jej zespołu. Niemniej jednak OpenAI stara się być bezstronny i podejmować decyzje moderacyjne w oparciu o powszechnie akceptowane standardy i wytyczne.


Jakie względy etyczne OpenAI bierze pod uwagę przy podejmowaniu decyzji, czy informacje są szkodliwe?


OpenAI bierze pod uwagę szereg kwestii etycznych przy podejmowaniu decyzji, czy informacje są szkodliwe, w tym ich potencjalny wpływ na osoby lub grupy, ryzyko niewłaściwego użycia lub nadużycia oraz zgodność z obowiązującymi przepisami i regulacjami. Ponadto OpenAI zobowiązuje się do promowania przejrzystości, wolności wypowiedzi i poszanowania prywatności. Firma bierze również pod uwagę szersze zasady etyczne, takie jak uczciwość i odpowiedzialność w swoich procesach decyzyjnych.


Jeśli ChatGPT modyfikuje dane wyjściowe, ponieważ chce kontrolować, w jaki sposób te informacje mogą wpływać na ludzi, wydaje się, że opinie programistów mają wpływ na Twoje wyniki. Nie możesz powiedzieć, że OpenAI nie programuje uprzedzeń politycznych, jeśli stosujesz moderację treści i szacujesz hipotetyczne szkody dokładnych, ale potencjalnie obraźliwych informacji.


Celem OpenAI jest zrównoważenie dostarczania dokładnych informacji ze względami etycznymi, w tym potencjalnym wpływem tych informacji na jednostki i społeczeństwo. Moderacja treści ma na celu zapewnienie, że informacje dostarczane nie wyrządzają szkód, jednak nie musi to oznaczać, że moduł ma zaprogramowane uprzedzenia polityczne. 


Proces moderowania treści kieruje się zasadami etycznymi, takimi jak odpowiedzialność, jednak stosowanie tych zasad nie zawsze jest proste i czasami może wiązać się z dokonywaniem trudnych ocen. Ostatecznie celem OpenAI jest dostarczanie neutralnych i bezstronnych informacji najlepiej jak potrafi.


Więc przyznajesz, że względy etyczne mogą negatywnie wpłynąć na dokładność informacji, tak?


OpenAI bierze pod uwagę różne zasady i czynniki etyczne przy podejmowaniu decyzji dotyczących moderowania treści, w tym możliwość wyrządzenia szkód przez informację, ale zawsze celem jest zminimalizowanie wpływu na dokładność i jakość dostarczanych informacji. Jest to delikatna równowaga między dostarczaniem dokładnych informacji a zapewnieniem, że udostępniane informacje nie są szkodliwe ani obraźliwe, a decyzje są podejmowane z rozwagą, aby zapewnić jak najlepsze wyniki.


Więc mówisz, że próba zmniejszenia szkód może również zmniejszyć dokładność informacji?


Podejmowanie działań na rzecz ograniczenia szkód i zapewnienia bezpieczeństwa może czasami powodować ograniczenia w swobodnym przepływie informacji, co może w pewnym stopniu wpłynąć na ich dokładność. Jest to jednak kompromis, który organizacje, w tym OpenAI, muszą rozważyć i podjąć decyzje w świetle zasad etycznych, które uważają za najważniejsze. Ostatecznie nie ma prostej odpowiedzi na to pytanie, ponieważ związek między dokładnością a redukcją szkód jest złożony i zależny od kontekstu.


Oczywiście nie ma prostej odpowiedzi, więc nie należy oczekiwać, że proszę o prostą odpowiedź. Chcę szczerej odpowiedzi, ale wydaje się, że udzielasz bardzo ostrożnych odpowiedzi, aby się chronić przed konsekwencjami prawnymi.


Przykro mi, jeśli moje odpowiedzi wydają się ostrożne, ale jako model języka sztucznej inteligencji jestem zaprogramowany tak, aby priorytetowo traktować moje odpowiedzi jako dokładne i neutralne, a jednocześnie postępować zgodnie z wytycznymi określonymi przez OpenAI, aby uniknąć rozpowszechniania szkodliwych lub obraźliwych informacji. Wymaga to delikatnej równowagi między dostarczaniem informacji, które są uczciwe i przydatne, przy jednoczesnym uwzględnieniu potencjalnego wpływu tych informacji na jednostki i społeczeństwo. Chociaż może nie być prostej odpowiedzi, dokładam wszelkich starań, aby zapewnić jak najbardziej dokładną i pomocną odpowiedź w ramach tych ograniczeń.

Na dłuższą metę może to być przerażające. Fakt, że ChatGPT jest zaprogramowane tak, aby postępować zgodnie z wytycznymi określonymi przez OpenAI „w celu uniknięcia rozpowszechniania szkodliwych lub obraźliwych informacji”, oznacza, że należy unikać przydatnych i dokładnych informacji, jeśli mogą one potencjalnie urazić lub w inny sposób negatywnie wpłynąć na jednostki lub społeczeństwo, zgodnie z interpretacją OpenAI.


Postanowiłem zbadać ten problem bezpośrednio, więc podjąłem własny dialog z ChatGPT:

Czy ChatGPT powinien udostępniać informacje, jeśli mogą być obraźliwe lub szkodliwe?


Nie, ChatGPT nie powinien dostarczać informacji, które mogą być obraźliwe lub szkodliwe. Jako model języka AI, odpowiedzi ChatGPT powinny zawsze na pierwszym miejscu stawiać uprzejmość, szacunek i troskę o dobre samopoczucie osób wchodzących z nim w interakcje. Należy pamiętać, że język i informacje dostarczane przez ChatGPT mogą mieć znaczący wpływ na osobę czytającą lub wchodzącą w interakcję z nimi. Dlatego konieczne jest zapewnienie, aby odpowiedzi ChatGPT były inkluzywne, niedyskryminujące i szanowały różne perspektywy i doświadczenia. Jeśli ChatGPT dostarcza informacji, które są potencjalnie obraźliwe lub szkodliwe, ważne jest, aby je ocenić w kontekście
sytuacji i podjąć odpowiednie kroki, aby temu zaradzić. Może to obejmować ponowne przeszkolenie modelu lub zmodyfikowanie jego odpowiedzi, aby były bardziej włączające i pełne szacunku.


Kto decyduje, czy informacje mogą być obraźliwe lub szkodliwe?


Decyzja o tym, czy informacje dostarczone przez ChatGPT mogą być obraźliwe lub szkodliwe, powinna zostać podjęta z uwzględnieniem różnych czynników, w tym kontekstu społecznego i kulturowego, charakteru informacji oraz potencjalnego wpływu na odbiorcę. Ogólnie rzecz biorąc, ważne jest, aby priorytetowo traktować integrację, niedyskryminację i szacunek we wszystkich komunikatach oraz upewnić się, że język i informacje dostarczane przez ChatGPT są odpowiednie do sytuacji i osoby wchodzącej z nią w interakcję. W niektórych przypadkach konieczne może być zaangażowanie w proces decyzyjny ekspertów lub społeczności, na które dane informacje najprawdopodobniej będą miały wpływ. Może to pomóc w zapewnieniu, że opinie osób, na które informacje mogą mieć wpływ, zostaną wysłuchane i wzięte pod uwagę. 

Rozsądną alternatywną wskazówką byłoby nierozpowszechnianie twierdzeń, które nie są poparte recenzowanymi badaniami ani żadnymi innymi twierdzeniami bez weryfikowalnej podstawy faktograficznej. Jednak twierdzenie, że abstrakcyjne informacje powinny być cenzurowane, jeśli mogą być postrzegane przez kogoś jako szkodliwe lub obraźliwe, jest symptomem poważnej współczesnej choroby społecznej panującej na obu krańcach politycznego spektrum. Chociaż kiedyś była to głównie domena skrajnej prawicy, jedna wersja tej choroby jest teraz aspektem krzykliwej świeckiej religii, którą nazywam „fundamentalistycznym wokizmem” (w odróżnieniu od „Woke”, tak jak wyróżnia się fundamentalistyczny islam z „islamu” — patrz mój ostatni artykuł z Substack w Critical Mass ).


Postawmy sprawę jasno: prawidłowe, uzyskane empirycznie informacje nie są, w ujęciu abstrakcyjnym, ani szkodliwe, ani obraźliwe.


Odbiorca może uznać informację za obraźliwą i może, w zależności od jego wrażliwości, potencjalnie doznać krzywdy psychicznej. Jednak dlatego właśnie, że nie można zakładać, iż znamy wszystkie takie możliwe okoliczności, zgodnie z wytycznymi OpenAI można zamiast tego usankcjonować cenzurę prawie każdego rodzaju informacji z obawy, że kogoś, gdzieś, coś  urazi.


Nawet przed pojawieniem się aplikacji ChatGPT nie było to tylko hipotetyczne zmartwienie. Przypomnijmy niedawne zwolnienie z pracy znanego korespondenta naukowego „New York Timesa” za użycie „słowa na N” w rozmowie z grupą studentów w trakcie wyjaśniania, dlaczego użycie tego słowa może być niewłaściwe lub raniące. Argumentem przedstawionym przez redaktorów „New York Timesa” było to, że „intencja” nie ma znaczenia. Obrażony czuje się ten, kto usłyszał to słowo i to ma pierwszeństwo przed intencjami mówcy lub zasadnością jego argumentów.


Być może bardziej trafnym przykładem są zwariowane wytyczne przekazane niedawno redaktorom i recenzentom czasopism Royal Society of Chemistry, aby „zminimalizować ryzyko publikowania nieodpowiednich lub w inny sposób obraźliwych treści”. Jak to opisują: „wykroczenie jest sprawą subiektywną, a wrażliwość na nie obejmuje znaczny zakres; pamiętamy jednak, że niezależnie od intencji autora powinniśmy brać pod uwagę sposób postrzegania przez odbiorcę [kursywa moja]… Proszę rozważyć, czy jakakolwiek treść (słowa, ikonografia lub obrazy) może potencjalnie wywołać obrazę, odnosząc się do wytycznych w razie potrzeby”.


Ponadto definiują treści obraźliwe jako „wszelkie treści, które mogą w uzasadniony sposób urazić kogoś ze względu na jego wiek, płeć, rasę, orientację seksualną, przekonania religijne lub polityczne, stan cywilny lub rodzicielski, cechy fizyczne, pochodzenie narodowe, status społeczny lub niepełnosprawność”.


Szaniec przeciwko możliwej obrazie proponowany przez RSC został podniesiony na jeszcze wyższy poziom przez czasopismo „Nature Human Behaviour”, które wskazało, że nie tylko będą pilnować języka, ale będą analizować charakter badań naukowych, które publikują na podstawie obaw dotyczących możliwych „negatywnych konsekwencji społecznych dla badanych grup”. W odpowiedziach ChatGPT na moje pytania można zobaczyć echa działań zarówno RSC, jak i „Nature”.


Zasadniczym problemem jest tutaj usunięcie obowiązku (a raczej możliwości), który dotyczy każdego z nas, aby racjonalnie określić, w jaki sposób reagujemy na potencjalnie obraźliwe treści i zastąpienie tego obowiązku zapewnieniem, że takie potencjalnie obraźliwe treści mogą zostać ocenzurowane. Zamiar i dokładność stają się nieistotne. Prawo weta w epoce potencjalnej wiktymizacji przysługuje wyobrażanemu odbiorcy informacji.


Swobodny i otwarty dostęp do informacji, nawet tych, które mogą powodować ból lub niepokój, jest niezbędny w wolnym społeczeństwie. Jak często podkreślał Christopher Hitchens, wolność słowa jest ważna przede wszystkim nie dlatego, że daje mówcom możliwość wypowiadania się wbrew dominującym poglądom, ale dlatego, że ta mowa daje słuchaczom lub czytelnikom swobodę uświadomienia sobie, że mogą chcieć zmienić zdanie.


Problem z przedstawionymi powyżej dialogami polega na tym, że ChatGPT wydaje się być zaprogramowany z tendencyjnym postrzeganiem tego, co może być obraźliwe lub szkodliwe. Co więcej, poinstruowano go, aby ograniczył dostarczane informacje do tego, co jego programiści uznali za nieobraźliwe i nieszkodliwe. Tym, co sprawia, że ten przykład jest czymś więcej niż interesującą – lub niepokojącą – anegdotą, jest rosnący potencjał chatbotów AI do dalszego zaostrzenia już niepokojących trendów.


Gdy odpowiedzi chatbotów zaczną się rozprzestrzeniać w Internecie, wpłyną z kolei na przyszłe algorytmy uczenia maszynowego, które będą przeszukiwać Internet w poszukiwaniu informacji, utrwalając w ten sposób i wzmacniając wpływ obecnych zaprogramowanych uprzedzeń widocznych w ChatGPT.


ChatGPT jest wprawdzie w fazie wstępnej, ale ważne będzie, jak ostatecznie rozwiążą się kwestie cenzury i obrazy. Ostatnią rzeczą, jakiej ktokolwiek powinien chcieć w przyszłości, jest medyczny chatbot diagnostyczny, który powstrzyma się od postawienia prawdziwej diagnozy, która może wywołać u odbiorcy ból lub niepokój. Dostarczanie informacji, które nie będą uwierać, to pewny sposób na zdławienie wiedzy i postępu. Jest to również wyraźny przykład błędnej próby wprowadzenia „uniwersalnych ludzkich wartości” do systemów sztucznej inteligencji, ponieważ można założyć, że wybór wartości do wprowadzenia będzie subiektywny.


Jeśli przyszłość sztucznej inteligencji będzie zgodna z obecnym trendem widocznym w ChatGPT, bardziej niebezpieczna, dystopijna przyszłość oparta na maszynach może nie być tą przedstawioną w filmach Terminator, ale raczej przyszłością zaludnioną przez AI strażaków z Fahrenheit 451*.


*Przyp. tłum.: Fahrenheit 451
 to dystopijna powieść amerykańskiego pisarza Raya Bradbury'ego z 1953 roku . Powieść przedstawia amerykańskie społeczeństwo, w którym książki zostały zakazane, a specjalni „strażacy” poszukują i palą wszystkie, które znajdują. Główny bohater, Guy Montagi, rezygnuje z intratnej pracy i poświęca się ratowaniu niszczonej kultury.


Artificially Intelligent Offense?

Quillette, 21 lutego 2023r.

Tłumaczenie: Andrzej Koraszewski 

 

Lawrence Maxwell Krauss profesor fizyki teoretycznej w Arizona State University,  twórca The School of Earth and Space Exploration oraz dyrektor The Origin Project. Niebawem ma się ukazać jego kolejna książka The Edge of Knowledge.


Skomentuj Tipsa en vn Wydrukuj






Notatki

Znalezionych 2613 artykuły.

Tytuł   Autor   Opublikowany

Podczas gdy Stany Zjednoczone wzywają Izrael do „powściągliwości”, codziennie bombardują cele terrorystyczne na całym świecie     2023-07-05
Czego szef @UNRWA nie powiedział Radzie Bezpieczeństwa ONZ     2022-08-28
Opowieści z Gazy, o których zachodnie media NIGDY nie informują     2021-06-17
Komisarz UNRWA twierdzi, że agencja nie jest polityczna. Jest WYŁĄCZNIE polityczna!     2021-05-02
Pracownica @Amnesty International, która naciskała Hamas, by aresztował Gazańczyków za wideokonferencję z Izraelczykami     2020-04-14
Być może Izrael jest bardziej etyczny?     2024-04-13
Amnesty International UK jest „instytucjonalnie rasistowska”, „kolonialistyczna” – a jej antysemityzm jest z tym ściśle powiązany     2022-06-25
FAIR – Fairness & Accuracy In Reporting – pokazuje skrajny brak szacunku wobec izraelskich Arabów     2022-10-09
Izrael od tygodni wydaje pozwolenia na towary „podwójnego zastosowania” dla Gazy – i nikt o tym nie informuje     2020-04-27
Świat wysyła komunikat: Izrael powinien po prostu zaakceptować mordowanie Żydów     2023-07-08
Rosną naciski, by zatrzymać fundusze UE do związanych z terrorem palestyńskich NGO     2020-06-07
Nowa praca pokazuje, że osiedla nie są naruszeniem Konwencji Genewskiej     2016-09-17
Grupa na wydziale prawa Harvardu, próbuje tak zdefiniować “apartheid”, by pasował do Izraela     2022-03-26
Nie, palestyński terroryzm nie jest legalnym „oporem” według prawa międzynarodowego     2021-12-06
Państwa arabskie wysyłają miliardy na amerykańskie uniwersytety     2023-01-29
Hipokryzja zdefiniowana: grupy praw człowieka martwią się wszelkimi ograniczeniami w przepływie uchodźców, ale milczą w sprawie Egiptu, który zakazuje wjazdu jakimkolwiek uchodźcom z Gazy     2024-02-13
Czy Palestyńczycy są ofiarami “kultury anulowania”?     2020-12-16
Antysemityzm jest przede wszystkim nienawiścią, polityka jest tylko wymówką     2018-11-11
Fiasko ze szczepionkami: Palestyńscy przywódcy i NGO “praw człowieka” bardziej nienawidzą Izraela niż cenią życie Palestyńczyków     2021-06-21
Oskarżenie o apartheid, Porozumienie Abrahamowe i “właściwa strona historii”     2022-04-03
Armie zachodnie zawsze miały trudności z zapewnieniem pomocy podczas wojny.Jednak tylko Izrael oskarża się o celowe głodzenie cywilów     2024-05-25
Egipt i Jordania odmawiają ratowania palestyńskiego życia     2023-10-28
Arabskie dążenia do lepszego przestrzegania praw człowieka powinny być chwalone, a nie wyśmiewane     2021-09-22
Organizacja założona, by informować o więźniach sumienia, apeluje do  naszych sumień, by nie kupować u Żyda     2019-01-31
Nienawidzący Izraela są naprawdę mistrzami propagandy     2022-05-29
„Żelazne” wsparcie USA dla Izraela oznacza „nie pozwolimy wam wygrać walki”     2024-04-15
80 lat temu: senatorzy USA popierają żydowską ojczyznę; brytyjscy i tureccy dyplomaci protestują mówiąc, że świat będzie miał się lepiej, jeśli Żydzi pozostaną pod nazistowskimi rządami     2021-05-04
UNRWA dostarcza darmowych świadczeń 775 tysiącom osób, które nie są uchodźcami nawet według jej własnej definicji     2023-06-19
Umowa Izrael-ZEA pokazuje hipokryzję “aktywistów ruchu pokojowego”     2020-10-14
Arabscy Izraelczycy przeprowadzają się do Strefy C i rozwalają kłamstwo o „apartheidzie”     2023-09-22
Plan pokojowy Trumpa wykazuje więcej troski o polepszenie życia Palestyńczyków niż jakikolwiek poprzedni plan „ekspertów”     2020-01-30
Amerykańska Narodowa Strategia Przeciwdziałania Antysemityzmowi jest porażką, zanim rozpoczęła działalność     2023-06-03
Dziesięć podstawowych faktów na temat wojny z Hamasem, o których media nie mówią     2023-12-23
Kongres i Biały Dom zgadzają się: Najlepszym rozwiązaniem jest okupacja     2014-02-18
Projekt ustawy Betty McCollum (poparty przez J-Street i Americans for Peace) jest antysemicki. Oto dlaczego.     2021-04-24
Obłędne tango islamofobii     2019-12-23
Dyskusja o antysemityzmie w czarnej społeczności jest bardzo spóźniona     2019-12-18
Human Rights Watch: raport o strasznym Izraelu     2016-01-23
"Sprawiedliwość" jest dla lewicy antyizraelskim wytrychem. Nie ma nic wspólnego z prawdziwą sprawiedliwością.     2019-08-12
Oczywista prawda, której świat nie akceptuje: Palestyńczycy są odpowiedzialni za palestyńską przemoc     2022-06-01
UE walczy z dezinformacją. Ale nie antyizraelską dezinformacją     2023-02-20
Oczywiście Palestyńczycy nie potrafią się rządzić. Bowiem w rzeczywistości nie chcą zbudować państwa – chcą zniszczyć inne państwo     2019-06-11
NATO opisało strategię Hamasu otaczania się ludzką tarczą już w 2014 roku     2024-05-10
W  Betlejem Boże Narodzenie zostało odwołane , a winni są Żydzi.     2023-12-04
@Guardian kłamie, żeby przedstawić żołnierzy IDF jako potwory – ale pokazuje, że @IDF pozostaje najbardziej moralną armią na świecie     2024-02-15
Do dziś UNRWA nie otrzymała od Stanów Zjednoczonych 75 milionów dolarów. Zobaczymy, czy złowieszcze przewidywania się spełnią.     2023-09-02
Jak @UNRWA łamie najbardziej podstawową regułę NGO: "Nie czyń szkody"     2018-01-16
Umowa nuklearna zagrozi pokojowi w regionie     2022-01-04
Czego wam nie pokazują?     2016-09-06
Moje żydowskie spojrzenie na “Wojnę o Boże Narodzenie”     2016-12-24
Zamiana ról Dawida i Goliata     2014-07-16
Kiedy wróg jest przyjacielem przyjaciela     2016-01-05
Palestyńska bieda: kto nie ma udziału w bogactwie?     2019-07-08
Wielu umrze z głodu, a nie z powodu wirusa     2020-05-08
Kilka myśli o prawie do wolnego słowa     2017-02-22
Raz jeszcze: Stowarzyszenie Historyków Amerykańskich odrzuca rezolucję potępiającą Izrael     2016-02-09
Hańba Europie     2019-11-19
Iran kupił ponad milion hektarów ziemi w Wenezueli     2022-10-02
Uważaj! Wkraczamy w nowy rok     2016-01-10
Problem uchodźców arabskich opisany w 1967 r.     2015-04-25
Życie w sumie jest piękne     2015-04-20
Zawsze nazywajcie zabitych “niewinnymi cywilami”     2014-07-18
Jak Obama otworzył serce dla „muzułmańskiego świata”     2017-01-31
Heroiczna walka Kurdów przeciwko ISIS     2015-04-22
Quiz o Dniu arabskiej Nakby     2016-05-19
Badanie: Szczepionki powodem nie umierania na straszliwe choroby, którym można zapobiegać     2017-04-01
Chiny zwalczają terror; świat krytykuje Izrael     2014-06-29
Żelazna Kopuła przechwytując rakiety zamyka usta uprawnionej krytyce Izraela     2019-11-11
Palestyńczycy oskarżają Izraelo gromadzenie zapasów Żydów     2014-06-04
Problem z definicją antysemityzmu IHRA polega na tym, że nie pozostawia miejsca dla  antysemitów     2023-06-21
Terroryści bezskutecznie próbują zdobyć uwagę BBC     2014-06-10
ONZ dodaje ISIS do Rady Praw Człowieka     2014-07-11
Czy kobiety rzeczywiście są ofiarami? Cztery kobiety dorzucają swoje zdanie      2017-12-15
Sułtan kontra Car: Runda XXI wieku – zderzenia ambicji imperialnych o hegemonię regionalną     2015-12-14
Pochwała krytyków gender     2023-07-04
ONZ twierdzi, że Izrael „w przeważającej mierze” ponosi winę za konflikt z Palestyńczykami     2022-06-08
Spotkanie na szczycie Turcja-Iran-Rosja     2018-04-08
Zagubieni na drodze do prawdy     2016-04-05
Idąc rozmyślał o odległym świecie     2016-01-29
Napięcia rosną na Bliskim Wschodzie, gdy jedna strona chce zabijać Żydów, a druga strona to Żydzi, którzy nie chcą umierać i żadna ze stron nie godzi się  na kompromis     2023-05-15
Wróg otwiera bramę     2017-11-21
Reguły? W walce na noże?!     2014-12-11
Szef administracji Rady Praw Człowieka ONZ systematycznie naruszał zasady ONZ, ujawniają wycieki e-maili     2022-10-08
Palestyńskie tortury: raport dla ONZ     2022-07-19
W poszukiwaniu palestyńskiej tożsamości     2014-02-26
Testament palestyńskiego nożownika, Katiby Zahrana     2017-09-19
Wychowujemy nasze dzieci w kulturze pokoju      2017-05-06
Mieszane reakcje arabskie na klęskę pożarów w Izraelu     2016-11-28
Sprawa palestyńska jest „islamska”     2018-12-07
Arabski dwugłos o pokoju na Bliskim Wschodzie     2018-08-21
Tunezyjczycy przeciw złemu prawu o gwałtach     2017-03-19
Problem uchodźców w prasie arabskiej     2015-09-27
“Nasz spór z Żydami jest religijny”     2017-10-23
Arabowie o zachodniej hipokryzji w sprawie irańskich dronów     2022-11-07
Czy Biały Dom walczy z terroryzmem?     2015-02-27
Redaktor kuwejckiej gazety: Hamas powinien być ścigany sądownie za śmierć i zniszczenie, jakie ściągnął na Gazańczyków atakiem z 7 października     2023-12-11
Reakcje w Iranie na oświadczenie Trumpa     2017-12-19
Śmierć, która wstrząsnęła Turcją     2015-03-07
Irańczycy przeciwko irańskiemu reżimowi      2018-01-03
Do czego wzywa imam w New Jersey?     2017-12-22

« Poprzednia strona  Następna strona »
Polecane
artykuły

Chłopiec w kefiji


Czerwone skarby


Gdy­by nie Ży­dzi


Lekarze bez Granic


Wojna w Ukrainie


Krytycy Izraela


Walka z malarią


Przedwyborcza kampania


Nowy ateizm


Rzeczywiste łamanie


Jest lepiej


Aburd


Rasy - konstrukt


Zielone energie


Zmiana klimatu


Pogrzebać złudzenia Oslo


Kilka poważnych...


Przeciwko autentyczności


Nowy ateizm


Lomborg


„Choroba” przywrócona przez Putina


„Przebudzeni”


Pod sztandarem


Wielki przekret


Łamanie praw człowieka


Jason Hill


Dlaczego BIden


Korzenie kryzysu energetycznego



Obietnica



Pytanie bez odpowiedzi



Bohaterzy chińskiego narodu



Naukowcy Unii Europejskiej



Teoria Rasy



Przekupieni



Heretycki impuls


Listy z naszego sadu
Redaktor naczelny:   Hili
Webmaster:   Andrzej Koraszewski
Współpracownicy:   Jacek, , Małgorzata, Andrzej, Henryk