Google, jeden z największych zwolenników sztucznej inteligencji, ostrzega pracowników przed chatbotami

SAN FRANCISCO (Reuters) – Alphabet Inc (GOOGL.O) ostrzegł pracowników o tym, jak używają swoich chatbotów, w tym Barda, jednocześnie sprzedaje oprogramowanie na całym świecie, według czterech osób zaznajomionych z tą sprawą. agencji Reutera.

Rodzic Google poradził pracownikom, aby nie wprowadzali swoich poufnych materiałów do inteligentnych chatbotów, powiedzieli ludzie, a firma potwierdziła, powołując się na wieloletnią politykę ochrony informacji.

Chatboty, wśród nich Bard i ChatGPT, to podobne do ludzi programy, które wykorzystują tzw. generatywną sztuczną inteligencję do prowadzenia rozmów z użytkownikami i odpowiadania na niezliczone podpowiedzi. Recenzenci mogą czytać czaty i Naukowcy odkryli Podobna sztuczna inteligencja może odtwarzać dane, które pochłonęła podczas szkolenia, co prowadzi do ryzyka wycieku.

Niektórzy twierdzą, że Alphabet ostrzegł również swoich inżynierów, aby unikali bezpośredniego używania kodu komputerowego, który mogą generować chatboty.

Poproszona o komentarz, firma powiedziała, że ​​Bard może zgłaszać niezamówione sugestie dotyczące kodu, ale mimo to pomaga programistom. Google powiedział również, że chce być przejrzysty w kwestii ograniczeń swojej technologii.

Obawy pokazują, jak Google chce uniknąć szkód biznesowych ze strony programów, które uruchomił w konkurencji z ChatGPT. Stawką w wyścigu Google ze zwolennikami ChatGPT OpenAI i Microsoft Corp (MSFT.O) są miliardy dolarów inwestycji i wciąż niewypowiedziane przychody z reklam i chmury z nowego oprogramowania AI.

Ostrzeżenie Google odzwierciedla również to, co stało się standardem bezpieczeństwa dla firm, ostrzegając osoby przed korzystaniem z publicznie dostępnych chatbotów.

Coraz więcej firm na całym świecie instaluje zapory ogniowe na inteligentnych chatbotach, powiedział Reuterowi, wśród nich Samsung (005930.KS), Amazon.com (AMZN.O) i Deutsche Bank (DBKGn.DE). Apple (AAPL.O), który nie odpowiedział na prośby o komentarz, podobno również to zrobił.

Około 43% profesjonalistów korzystało od stycznia z ChatGPT lub innych narzędzi sztucznej inteligencji, często bez informowania o tym swoich szefów, wynika z ankiety przeprowadzonej na prawie 12 000 respondentów, w tym z największych amerykańskich firm, przeprowadzonej przez witrynę sieciową Fishbowl.

READ  Elon Musk: Twitter zabiega o najwyższe kierownictwo NBCUniversal

W lutym Google poprosił pracowników testujących Barda przed jego premierą, aby nie podawali informacji wewnętrznych, wspomniałem w środku. Google wprowadza teraz Bard w ponad 180 krajach i w 40 językach jako odskocznię do kreatywności, a jego zastrzeżenia dotyczą sugestii dotyczących kodu.

Google powiedział Reuterowi, że przeprowadził szczegółowe rozmowy z irlandzką Komisją Ochrony Danych, ponieważ odpowiada na pytania organów regulacyjnych, po wtorkowym raporcie Politico, że firma opóźnia uruchomienie Bard w UE w tym tygodniu, czekając na więcej informacji na temat wpływu chatbota na prywatność.

Obawy dotyczące wrażliwych informacji

Taka technologia może tworzyć wiadomości e-mail, dokumenty, a nawet same programy, obiecując wykładnicze przyspieszenie zadań. Treści te mogą jednak zawierać fałszywe informacje, dane wrażliwe, a nawet chronione prawem autorskim fragmenty powieści „Harry Potter”.

Informacja o ochronie prywatności Google, zaktualizowana 1 czerwca, również stwierdza: „Nie podawaj poufnych ani wrażliwych informacji w rozmowach z Bard”.

Niektóre firmy opracowały oprogramowanie, które rozwiązuje takie problemy. Na przykład Cloudflare (NET.N), która chroni strony internetowe przed cyberatakami i oferuje inne usługi w chmurze, oferuje firmom możliwość oznaczania i ograniczania wypływu niektórych danych.

Google i Microsoft oferują również narzędzia konwersacyjne klientom biznesowym, którzy pobierają wyższą cenę, ale powstrzymują się od przyjmowania danych do ogólnych modeli AI. Domyślnym ustawieniem w Bard i ChatGPT jest zapisywanie historii czatów użytkowników, którą użytkownicy mogą usunąć.

Yousef Mahdi, dyrektor ds. marketingu konsumenckiego Microsoftu, powiedział, że „ma sens”, że firmy nie chcą, aby ich pracownicy korzystali z publicznych chatbotów w pracy.

„Firmy słusznie zajmują konserwatywne stanowisko” — powiedział Mehdi, wyjaśniając, jak bezpłatny chatbot Bing firmy Microsoft wypada w porównaniu z oprogramowaniem dla przedsiębiorstw. „Tam nasze zasady są znacznie surowsze”.

Microsoft odmówił komentarza na temat tego, czy ma ogólny zakaz wprowadzania przez pracowników poufnych informacji do publicznych programów sztucznej inteligencji, w tym własnych, chociaż inny dyrektor powiedział Reuterowi, że osobiście ograniczył ich wykorzystanie.

READ  Ogromny inwestor w dziedzinie technologii private equity przewiduje, kto wygra falę sztucznej inteligencji

Pisanie poufnych spraw do chatbotów było jak „przerzucanie kilku doktorantów po twoich prywatnych dokumentach” – powiedział dyrektor generalny Cloudflare, Matthew Prince.

Reportaż Jeffreya Dustina i Anny Tong w San Francisco Montaż autorstwa Kennetha Lee i Nicka Ziemińskiego

Nasze standardy: Zasady zaufania Thomson Reuters.

Jeffreya Dustina

Thomsona Reutera

Jeffrey Dustin jest korespondentem Reutersa w San Francisco, gdzie pisze o branży technologicznej i sztucznej inteligencji. Dołączył do agencji Reuters w 2014 roku, początkowo zajmując się liniami lotniczymi i podróżami z nowojorskiego biura. Dustin ukończył Uniwersytet Yale na wydziale historii. Był członkiem zespołu Amazon.com Worldwide Pressure Test Team, za który zdobył nagrodę SOPA w 2022 roku.

Annę Tong

Thomsona Reutera

Anna Tong jest korespondentką agencji Reuters w San Francisco, gdzie pisze o branży technologicznej. Dołączyła do Reuters w 2023 roku po pracy w San Francisco Standard jako redaktor danych. Wcześniej Tong pracowała w startupach technologicznych jako Product Manager oraz w Google, gdzie pracowała nad User Insights i pomagała prowadzić call center. Tong ukończył Uniwersytet Harvarda. Kontakt: 4152373211

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *