Organizace

Pozor na virtuálního kolegu! S čím by se zaměstnanci neměli svěřovat Chat GPT?

0

Vymýšlí recepty, sepisuje nákupní seznamy, plánuje výlety a odpovídá na milion otázek, na které jsme vždy chtěli znát odpověď. Je také skvělým kolegou, umí totiž poradit s obsahem prezentace nebo důležitého e-mailu. Při práci šetří čas a může zvyšovat produktivitu zaměstnanců. Občas lidé ale AI nástrojům jako ChatGPT důvěřují až moc. Jak zajistíte, aby zaměstnanci pracovali s umělou inteligencí bezpečně a neohrozili vaši společnost?

AI nástroje snadno odhalí chybu v kódu, vytvoří základ pro obchodní strategii a přijdou s nápady, jak vaši firmu posunout zase o kousek dál. Data, která do chatbotů zaměstnanci zadávají, jim však přestávají patřit, jakmile kliknou na tlačítko „Odeslat zprávu“. Pokaždé, když požádají chatbota o pomoc, můžou neúmyslně sdílet citlivé údaje o vaší společnosti. Jak takovým nepříjemnostem předejít? Společnost ESET ve svém magazínu Digital Security Guide radí:

1. Vypnout historii chatu

Prvním bezpečnostním krokem by mělo být vypnutí historie chatu. OpenAI, organizace stojící za ChatGPT, pak nebude moct používat uživatelská data k trénování a zlepšování modelů. Zaměstnanci tak budou mít o něco větší kontrolu nad svými daty. Ale i když je historie chatu vypnutá, všechna sdílená data zůstávají uložena na serverech chatbotů. Vypnutí historie vás tedy nespasí, i přesto je to důležitý a lehce proveditelný krok.

2. Promazávat důvěrné dokumenty

AI chatboti zvládnou rychle shrnout velký objem dat a za zaměstnance vytvořit například prezentaci. Ač může být sebevíc lákavé takto šetřit čas, číhá tu nebezpečí. Pokud do AI nástroje nahrajete určitý typ dokumentů, můžete ohrozit firemní data. Netýká se to jen důležitých firemních strategických dokumentů, ale i obyčejného zápisu ze schůzky. Dřív než zaměstnanci chatbota požádají o shrnutí dokumentů, měli by si je sami pročíst a citlivá data promazat.

Samsung zakázal svým zaměstnancům používat ChatGPT poté, co došlo k úniku interního zdrojového kódu a zápisu ze schůzek na začátku roku 2023.

Amazon se setkal s podobnou situací. ChatGPT ale nezakázal, pouze své zaměstnance varoval a doporučil jim zodpovědné zacházení s AI nástroji.

3. Anonymizovat data klientů i společnosti

Jména, kontaktní údaje, peněžní tok a další informace by pracovníci měli náležitě anonymizovat. Sdílení klientských dat s AI nástroji – chyba, která je velmi častá, byť většinou neúmyslná. Naučte své kolegy dotazy anonymizovat. V žádném případě se v nich nesmí objevit jména, adresy nebo čísla účtů klientů. Někdy je lepší chatu pokládat jen velmi obecné dotazy.

HeRe%20magazi%CC%81n.png
HeRe%20magazi%CC%81n-1.png

Pokrok v oblasti AI a strojového učení je nezastavitelný. Když nebudou firmy ve střehu, ujede jim vlak, na který se jim bude těžko naskakovat zpět. Neustále sledujte trendy a buďte připraveni se jim přizpůsobovat. Nepouštějte se však do inovací střemhlav, někdy je na místě obezřetnost. Ujistěte se, že vaši zaměstnanci znají zásady bezpečného používání AI nástrojů – připravte pro ně šablony dotazů, sepište interní směrnice, a hlavně organizujte pravidelná školení.

Text vznikl mimo jiné na základě podkladů od softwarové společnosti ESET a magazínu Digital Security Guide.

Přepošlete do týmů checklist s otázkami, které si každý může položit, než začne pracovat s AI nástroji.

Začtěte se zde
0

Diskuze

Pouze přihlášení uživatelé mohou přidávat reakce

Přihlásit se
0 reakcí

Tato diskuze neobsahuje zatím žádné příspěvky

MAGAZÍN

Čtěte dál

Digitalizace a inovace
12.03.2025
článek

Na HR si stejně jenom hrají. A co když ano? Gamifikace pomáhá vybírat top performery a šetřit náklady za nábor

Well-being
10.03.2025
článek
Michal Šrajer

Štěstí v práci: proč se vyplatí mít spokojené zaměstnance a jak na to?

Legislativa
06.03.2025
cheat sheet

Přehled aktuálních změn v pracovním právu

Inovace
05.03.2025
článek

Produktivní playlisty: Jak hudba ovlivňuje vaši produktivitu