Korišćenje ChatGPT-a postalo je sve popularnije u poslovnom svetu jer značajno ubrzava i pojednostavljuje razne zadatke, poput pisanja, istraživanja ili kreiranja koda. Uprkos potencijalu koji pruža, važno je znati kako da ga pravilno koristimo. Bez kritičkog razmišljanja i neophodne pažnje, ChatGPT može biti opasan, i dovesti nas do pogrešnih zaključaka ili, u najgorem slučaju, do curenja poverljivih informacija.
Slepo poverenje
Što više koristimo ChatGPT i dobijamo dobre odgovore, poverenje u ovaj alat nam raste. Postoji tendencija da korisnici vremenom postavljaju sve složenija pitanja, očekujući tačne odgovore bez potrebe za dodatnom proverom.
ChatGPT nije čovek, već matematička formula koja generiše najverovatniji odgovor na osnovu unetog konteksta. Njegova moć dolazi iz sposobnosti da analizira ogromne količine podataka i predloži najverovatniji odgovor. To ne znači da je uvek tačan i pouzdan. Jedan od većih izazova sa ovim modelima su „halucinacije“, gde AI daje uverljive, ali potpuno izmišljene odgovore.
SAVET: Priložite jasne i konkretne zahteve i kritički procenite svaki odgovor. Koristite ga kao alat koji ubrzava manuelne procese, a ne kao brzo rešenje za nepoznate probleme. ChatGPT je tu da pomogne, a ne da preuzme zadatke koje sami ne razumemo.
Postavljanje nepreciznih zahteva
Jedna od najčešćih grešaka u korišćenju ChatGPT-a je nedovoljno precizan zahtev. Za razliku od ljudi, koji mogu da „popune rupe“ na osnovu konteksta i pretpostave šta nam je potrebno, ChatGPT nema tu sposobnost. On ne zna naše ciljeve ako mu to jasno ne kažemo. Zato je važno biti vrlo detaljan u davanju instrukcija, od same formulacije pitanja do tonaliteta i stila odgovora koji očekujemo (tzv. prompt engineering).
SAVET: Na primer, ako tražite od ChatGPT-a da odgovori na e-mail, ispravno je: „Odgovori na e-mail ljubaznim tonom, tako što ćeš u moje ime zamoliti klijenta za povratnu informaciju o projektu XY. Persiraj klijentu.“
Pogrešno: „Odgovori na ovaj e-mail.“
Nedostatak iteracije
ChatGPT je konverzacijski model, što znači da je najefikasniji kada mu pružate povratne informacije. Umesto da prihvatite prvi odgovor kao krajnji, treba mu dati instrukcije kako da poboljša odgovor. Ako niste odmah dobili zadovoljavajući odgovor, pokušajte ponovo dodajući nove detalje ili tražeći dodatne izmene. Ovaj iterativni proces je ključan za dobijanje najboljih rezultata.
SAVET: Na primer, nakon što vam odgovori na pitanje, možete ga zamoliti: „Možeš li proširiti ovaj deo vezan za prednosti proizvoda?“ ili „Daj mi alternativnu verziju sa formalnijim tonom.“
Deljenje poverljivih i osetljivih podataka
Jedna od najopasnijih grešaka je deljenje osetljivih informacija sa ChatGPT-om, kao što su lozinke, poslovni podaci ili informacije o klijentima. Postavite sebi pitanje – da li biste te informacije podelili sa strancem ili ih stavili na internet? Ako je odgovor „ne“, onda ih ne unosite u ChatGPT.
Poznat je primer kada je ovakva greška dovela do fatalnih posledica za Samsung, čiji su zaposleni slučajno uneli osetljive informacije u ChatGPT, uključujući kod i zapisnike sa internih sastanaka. Ove informacije su postale dostupne OpenAI-ju, a time i svim drugim korisnicima kojima je palo na pamet da pitaju “Koja je Samsung-ova strategija za 2025. godinu?”.
Takođe, OpenAI je doživeo veliki incident u martu 2023. godine, kada su podaci korisnika bili izloženi zbog greške u softveru, što je omogućilo da korisnici vide istoriju četa i podatke o drugim korisnicima.
Zato, kada unosite osetljive podatke u ChatGPT, morate biti oprezni jer svaki unos može biti zabeležen i potencijalno dostupan trećim licima, što može ugroziti sigurnost poslovnih ili ličnih informacija.
Bilo da se radi o poslovnim, ličnim, finansijskim ili kreativnim podacima, svaka informacija može biti izložena riziku ako nije pravilno zaštićena. Stoga je neophodno koristiti ove tehnologije odgovorno.