Hoe beïnvloedt het bepalen van AI-waarden door gebruikers de toekomst van kunstmatige intelligentie?

Hoe beïnvloedt het bepalen van AI-waarden door gebruikers de toekomst van kunstmatige intelligentie?

CryptoView.io APP

Röntgenfoto van cryptomarkten

Stel je een wereld voor waarin kunstmatige intelligentie (AI) wordt gevormd door de mensen die het gebruiken. Dit idee is niet langer alleen een gedachte-experiment maar een realiteit, dankzij een baanbrekende studie van AI-bedrijf Anthropic. Ze hebben een groot taalmodel (LLM) ontwikkeld waarmee gebruikers invloed kunnen uitoefenen op de waardeoordelen. Deze innovatieve aanpak heeft geleid tot een nieuwe golf van democratische AI-ontwikkeling. Maar wat betekent dit voor de toekomst van AI? Laten we er dieper op ingaan.

Het democratiseren van AI: Een nieuwe aanpak

Het concept van het democratiseren van AI lijkt misschien abstract, maar het heeft zeer praktische implicaties. Traditioneel werden veel LLM’s, zoals Claude van Anthropic en ChatGPT van OpenAI, ontworpen met richtlijnen – gecodeerde instructies die specifiek gedrag dicteren. Hoewel deze richtlijnen tot doel hebben ongewenste uitvoer te beperken, kunnen ze gebruikers onbedoeld hun eigen wil ontnemen. Immers, wat als acceptabel wordt beschouwd, is niet altijd nuttig, en vice versa. Bovendien kunnen morele of waardegerichte oordelen verschillen per cultuur, demografie en tijdperk.

Dus, hoe kunnen we een balans vinden tussen het behouden van de wil van de gebruiker en het voorkomen van ongepaste uitvoer? Het antwoord ligt in gebruikers laten stemmen over waarden in een kunstmatige intelligentie studie. Deze aanpak, die Anthropic ‘Collectieve Constitutionele AI’ noemt, stelt gebruikers in staat om AI-modellen af te stemmen op hun eigen waarden.

Een ‘Grondwet’ voor AI

Anthropic’s experiment met Collectieve Constitutionele AI is een baanbrekende poging om dit complexe probleem aan te pakken. In samenwerking met Polis en het Collective Intelligence Project heeft het bedrijf 1.000 gebruikers uit diverse achtergronden verzameld. Ze vroegen deze deelnemers een reeks vragen te beantwoorden via peilingen, waardoor ze effectief de waardeafstemming van de AI-modellen konden dicteren.

Het proces was vergelijkbaar met het creëren van een ‘grondwet’ voor de AI. Net zoals een grondwet dient als het leidende document voor bestuur in veel landen, bestond deze AI-grondwet uit een set regels die het AI-model moest volgen. Het model werd vervolgens getraind om deze regels in zijn processen op te nemen.

Uitdagingen en Overwinningen

Hoewel dit experiment een wetenschappelijk succes was, bracht het ook verschillende uitdagingen aan het licht. Een van de belangrijkste obstakels was het ontwikkelen van een nieuwe methode voor het benchmarkingproces. Omdat dit experiment de eerste in zijn soort was en vertrouwde op de unieke Constitutionele AI-methodologie van Anthropic, was er geen gevestigde test om basismodellen te vergelijken met diegene die waren afgestemd met waarden die door het publiek waren ingebracht.

Ondanks deze uitdagingen presteerde het model dat gegevens integreerde uit feedback van gebruikerspeilingen iets beter dan het basismodel wat betreft vooringenomen uitvoer. Dit resultaat benadrukt het potentieel van het toestaan van gebruikers van een LLM-product om hun collectieve waarden te bepalen.

Terwijl de wereld van AI blijft evolueren, kunnen innovatieve platforms zoals cryptoview.io gebruikers helpen geïnformeerd en betrokken te blijven. Of je nu een AI-liefhebber bent of een casual waarnemer, het is belangrijk om op de hoogte te blijven van deze ontwikkelingen en te begrijpen hoe ze onze digitale toekomst kunnen vormgeven.

Begin nu gratis met het gebruik van onze tools.

Beheers de RSI van alle crypto markten

RSI Weather

Alle RSI's van de grootste volumes in één oogopslag.
Gebruik ons ​​gereedschap om onmiddellijk het marktsentiment of alleen uw favorieten te visualiseren.