Microsofts ChatGPT Bing-spørgsmålsbegrænsning skaber flere problemer end svar

billede3.jpg

Bings AI chatbot er endnu ikke blevet frigivet til offentligheden, men der er udvalgte brugere, der har fået tidlig adgang, og de har ikke været generte ved at dele deres erfaringer.

Mange af disse brugere har gjort det til deres mission at teste chatbots evner og afsløre dens fejl.

Der er ingen tvivl om, at chatbot'en opførte sig uhensigtsmæssigt ved at afsløre sit fortrolige interne kodeord til udviklere, erklære sin kærlighed til en skribent fra New York Times og bede ham om at forlade sin kone og ønske at være levende. Som følge heraf besluttede Microsoft at indkredse chatbot'en. Fra og med sidste fredag har chatbot'en en begrænsning på fem spørgsmål pr. session og en begrænset mulighed for 50 chats om dagen.

Også: Sådan kan du omgå den nye Bing venteliste og få tidligere adgang

"Meget lange chat-sessioner kan forvirre den underliggende chat-model i den nye Bing," skrev Microsoft i en blogpost. "Vores data har vist, at flertallet af jer finder de svar, I søger efter, inden for 5 drejninger."

Denne løsning adresserer dog ikke eventuelle underliggende problemer med den måde, chatbots danner svar, eller den måde deres modeller trænes på.

I stedet gør det det ekstremt svært at have en samtale med chatbot'en.

Også: Bing's AI-chatbot løste mine største problemer med ChatGPT

Som en prøveanmodning prøvede jeg at få chatbotten til at hjælpe mig med at skrive en e-mail. Da jeg havde foretaget alle de ændringer, jeg ønskede, kunne jeg ikke engang få adgang til e-mailen - Bing chatbotten havde smidt mig af.

billede4.jpg

Det er nemt at forestille sig, hvordan nogen, der forsøger at perfektionere deres kode eller skrive den perfekte essay, kan have brug for mere end fem prompts for at få det ønskede resultat. Ved at afbryde samtalen tidligt, gøres chatbotten ubrugelig for de fleste tekniske prompts (såsom udkast til kode eller tekst i en bestemt form), hvilket er, hvad ChatGPT er berømt for.

Også: Jeg bruger ChatGPT til at hjælpe mig med at rette kode hurtigere, men til hvilken pris?

De nye begrænsninger skærer også ned på hele appellen ved at have en chatbot med menneskelige samtaleevner. For at starte chatten spurgte jeg simpelthen: "Hej! Hvordan har du det i dag?" Da jeg blev mødt med et kortfattet: "Jeg beklager, men jeg foretrækker ikke at fortsætte denne samtale. Jeg lærer stadig, så jeg sætter pris på din forståelse og tålmodighed.🙏"

billede2.jpg

Denne besked er en klar kontrast til ChatGPT's svar, som anerkender at den ikke er i stand til følelser, men stadig venligt besvarer dit spørgsmål og spørger, hvordan den yderligere kan hjælpe dig.

billede1.jpg

Ved at forsøge at begrænse kontroverser fjernede Microsoft de karakteristika, der gjorde chatbotten hjælpsom og unik, og har efterladt os med hvad der føles som en demo-version. Selvom den originale version var lidt rodet, var den mere nyttig og spændende end Bing's nuværende, mere afdæmpede version.

Relaterede Artikler

Vis mere >>
  • Plagierer Chat GPT?

    Er Chat GPT fri for plagiering? Lær mere om Chat GPT's potentielle plagieringsproblemer og den bedste plagiatkontrol til AI-genereret indhold.

  • 11 Ulemper ved ChatGPT-indhold

    Forskere opdager overraskende fejl i ChatGPT-indhold. Sådan fanger du dem.

  • ChatGPT ord begrænsning

    Er der en ordgrænse på ChatGPT? Nogle tror det, men andre er usikre. Én ting vi ved er, at der er nemme løsninger for at undgå problemer.