Microsofts innovative Bildgenerierungssoftware, Copilot Designer, basierend auf Dall-E, offenbart ein ernstes ethisches Dilemma. Shane Jones, ein Entwickler bei Microsoft, hat durch seine Tests aufgezeigt, dass Copilot fähig ist, bedenkliche Inhalte wie Kinder mit Waffen oder Alkohol und sexualisierte Darstellungen in Missbrauchssituationen zu erzeugen. Diese Erkenntnisse, die Jones im Rahmen seiner Tätigkeit als Red-Teamer und in seiner Freizeit gewann, führten zu einem „augenöffnenden Moment“ hinsichtlich der Risiken und ethischen Bedenken, die mit der Nutzung der Technologie verbunden sind. Trotz des Feedbacks an Microsoft blieben umfassende Maßnahmen aus, was Jones dazu veranlasste, einen offenen Brief zu veröffentlichen, den er jedoch auf Anforderung von Microsoft wieder entfernte. Die Fähigkeit von Copilot, urheberrechtlich geschützte Figuren zu reproduzieren, verschärft das Problem zusätzlich. Trotz einiger gesperrter Prompts durch Microsoft bleibt die Problematik bestehen, und die ethischen Grenzen der KI-gestützten Bildgenerierung werden weiterhin heiß diskutiert.
Quelle: Golem
Keine Experimente mehr im Serverraum – Starten Sie Ihren IT-Betrieb nach FlightOps-Standard.
IT-Ausfälle kosten nicht nur Nerven, sondern im Ernstfall Zehntausende Euro pro Stunde. Mit unserer FlightOps-Methodik bringen wir die Präzision und Fehlerkultur der Luftfahrt in Ihren IT-Betrieb. Weg vom „Helden-Admin“ und hektischer Fehlersuche, hin zu proaktivem Monitoring, strikten Checklisten und garantierter Stabilität.