Każdego roku pojawiają się nowe postępy w nauce i technologii. Sztuczna inteligencja (AI) to największy jak dotąd wynalazek ludzkości. To wszechświat programowania zdolny do automatyzacji zadań i rozwiązywania problemów we wszystkich obszarach. Jednym z najnowszych rozwiązań technologicznych jest ChatGPT.
Nasze urządzenia są zdominowane przez coraz bardziej złożone algorytmy, które mogą (pozornie) ułatwić nam życie. W ostatnich miesiącach na rynku pojawiła się kolejna wyrafinowana „zabawka”, znana jako ChatGPT. Jak samo słowo wskazuje, jest to chatbot specjalizujący się w dialogu i interakcji z ludźmi. Odpowiada na złożone pytania i jest w stanie wykonać wszystko, od pisania tekstów po komendy programistyczne. Jego właściwości są praktycznie nieskończone..
Platforma ta ma już wiele tysięcy użytkowników. Co więcej, wiele firm technologicznych zainwestowało w jej rozwój miliony dolarów. Czy ChatGPT jest jednak tak fascynujący, jak się wydaje? I jak ten rodzaj inżynierii, mający na celu rozwiązywanie zadań, które do tej pory wykonywaliśmy sami, zmieni nasze życie?
ChatGPT to sztuczna inteligencja wyszkolona do prowadzenia rozmów. Eksperci twierdzą jednak, że nie wszystko, co mówi, jest wiarygodne.
ChatGPT
Produkt ten został stworzony przez laboratorium sztucznej inteligencji OpenAI. Specjalizuje się w dynamice dialogu i interakcji konwersacyjnej. Został uruchomiony w listopadzie 2022 roku i jak dotąd odniósł ogromny sukces.
ChatGPT to narzędzie, które zostało przeszkolone milionami tekstów i które ułatwia użytkownikom prowadzenie rozmowy, równie realistycznej, co pomocnej. Jego celem jest dostarczenie nam wszystkich potrzebnych informacji. Ponadto jest w stanie szczegółowo wyjaśnić dowolne dane. Dlatego może postawić Google w dość wrażliwej sytuacji.
Ta technologia, której częścią jest Elon Musk, obiecuje ułatwić nam życie. Potrafi rozwiązywać problemy matematyczne, programować i rozwijać kody, pisać wszelkiego rodzaju teksty i prowadzić nas w dowolnej dziedzinie lub dyscyplinie. To przełomowa innowacja, która budzi zarówno nadzieję, jak i strach. Pomyślcie, ile miejsc pracy mógłby zastąpić.
Poprzednikami ChatGPT były obciążone uprzedzeniami algorytmy, które często podawały obraźliwe, a nawet wprowadzające w błąd odpowiedzi. W tej nowej wersji prawie wszystkie błędy zniknęły.
Pozytywne aspekty
Sztuczna inteligencja tego nowego zasobu technologicznego jest dobrze dostrojona i można z nim prowadzić optymalne rozmowy. Odpowiedzi, które oferuje na wątpliwości i pytania, są dokładne, szczegółowe, a także pełne szacunku.
Kilka lat temu tego typu chatboty szukały informacji w Internecie, więc często spotykano się z rasistowskimi i obraźliwymi odpowiedziami. Jednak ChatGPT jest w stanie odrzucić nawet nieetyczne zapytania. Co więcej, potrafi nawet przyznać się do własnych błędów. Dlatego przedstawia wyrafinowane metapoznanie.
Innym godnym uwagi aspektem jest to, że monitoruje i analizuje zadawane pytania. Jeśli więc są one ze sobą powiązane, wie, jak zsyntetyzować i przyspieszyć odpowiedzi, aby się nie powtarzać. Bez wątpienia jest to technologia analityczna o doskonałych możliwościach autorefleksji i metaanalizy.
Możemy poprosić ChatGPT o napisanie skryptów, zwracanie się do nas w bardziej nieformalny sposób, a nawet użycie tonu typowego dla naszego języka.
Czy można jej zaufać?
Ci, którzy korzystali z tej nowej technologii, twierdzą, że jest to niesamowita innowacja. Wciąż jednak raczkuje. Jej twórcy są tego świadomi. Zdają sobie sprawę, że chociaż może nawet wykonywać meta-rozumowanie, istnieją ograniczenia, które należy wziąć pod uwagę.
1. Kiedy nie zna odpowiedzi, wymyśla ją
Kiedy tego typu technologie pojawiają się po raz pierwszy, są zwykle poddawane wszelkim możliwym próbom. Analitycy i programiści wiedzą, jak testować swoje algorytmy. Jedną z rzeczy, które zauważyli w ChatGPT, jest to, że kiedy nie może rozwiązać problemu, staje się pomysłowy.
Jak powiedzieliśmy wcześniej, przyznaje się do swoich błędów. Jednak jest również zaprogramowany do oferowania odpowiedzi, a kiedy nie jest to możliwe, wymyśla odpowiedzi. Co ciekawe, to dość ludzka przypadłość.
2. Nie może oferować informacji po 2021 roku
Ta sztuczna inteligencja była szkolona w latach poprzedzających rok 2021. W związku z tym nie jest w stanie dostarczać informacji o wydarzeniach lub celebrytach po tej dacie.
3. Przedstawia błąd algorytmiczny
Uniwersytet Oksfordzki (Wielka Brytania) przeprowadził badanie dotyczące rozpowszechnienia błędów algorytmicznych w sztucznej inteligencji. Wspomnieli o konieczności ich poprawienia w zakresie pewnych błędów systematycznych. Obejmują one informacje oferowane przez komputer, które uprzywilejowują pewną grupę społeczną, na przykład białych mężczyzn z Europy.
Na przykład, jeśli zapytamy, kto wygrał Mistrzostwa Świata 2018, ChatGPT założy, że jest to pytanie o piłkę nożną i męskie drużyny.
4. W tej chwili Google jest bardziej skuteczny
Oczywiście musimy dać temu czas, ale jak dotąd matryca Google jest bardziej niezawodna i skuteczna. Jest to nadal najskuteczniejsza wyszukiwarka i najczęściej używana. Jednak ChatGPT jest z nami od niedawna.
Przyszłość
To oczywiste, że stoimy u bram wielkiej świadomości, która dopiero się budzi, czyli sztucznej inteligencji. Technologie te są szkolone przez lata, otrzymując ogromne ilości informacji. Dlatego stają się ogromnymi mózgami nastawionymi na udzielanie odpowiedzi, wykonywanie zadań i zapewnianie nam potrzebnej pomocy.
Jednak chociaż stanowią już część naszego życia, wkrótce zautomatyzują wiele zadań i zaczną podejmować za nas decyzje. Z tego powodu nadal istnieją kwestie etyczne, które należy rozwiązać. Warto też zastanowić się, czy jest to zgodne z prawem, aby technologia zastępowała zadania i procesy, które do tej pory były wyłącznie domeną człowieka.
Bibliografia
Wszystkie cytowane źródła zostały dokładnie sprawdzone przez nasz zespół, aby zapewnić ich jakość, wiarygodność, trafność i ważność. Bibliografia tego artykułu została uznana za wiarygodną i posiadającą dokładność naukową lub akademicką.
- Garcia, Megan (2016). “Racist in the Machine”. World Policy Journal. 33 (4): 111–117. doi:10.1215/07402775-3813015
- Ziewitz, Malte (2016). “Governing Algorithms: Myth, Mess, and Methods”. Science, Technology, & Human Values. 41 (1): 3–16. doi:10.1177/0162243915608948
- Sharma, Ax (December 6, 2022). “OpenAI’s new ChatGPT bot: 10 dangerous things it’s capable of”, Bleeping Computer
- Schulman, John; Wolski, Filip; Dhariwal, Prafulla; Radford, Alec; Klimov, Oleg (2017). “Proximal Policy Optimization Algorithms”. arXiv:1707.0634