KI Anbieter 35

Hallo Zusammen,

wie promptet man denn wenn man Motive braucht, die Adobe nicht zulässt?

(bevor jetzt Laberei aufkommt, die Adobe Grenzen sind amerikanisch-eng)

VG
2 months ago
Meinst Du wirklich "wie" oder "wo"?
sorry, natürlich WO
2 months ago
Wenn Du eine halbwegs leistungsfähige Grafikkarte hast (vorzugsweise von NVidia) könntest Du Stable Diffusion lokal installieren und Dir passende AI-Modelle herunterladen und installieren:
https://github.com/AUTOMATIC1111/stable-diffusion-webui
2 months ago
Fooocus über Github, tensor.art. Beides kostet nichts bzw. es gibt free Credits pro Tag.
2 months ago
Ich habe da zwei Punkte:
1) Obwohl ich sogar beruflich mit git zu tun habe/hatte, ist mir hier nicht klar, worauf ich zu achten habe und was genau ich wie bekomme. Vielleicht fehlt mir da auch einfach die Unbefangenheit.
2) Ich finde es spannend, dass diese Thema hieraufgebracht wird 8obwohl es nur sehr bedingt mit der MK zu tun hat). Ich krame daher jetzt doch das "wie" wieder hervor, denn meine Erfahrung ist, dass die Modelle nicht posingsicher sind und mich in vielen Punkten einfach nicht verstehen. Geht Euch das auch so?
@ Simcha Nurit #8
Der Vorschlag #4 ist eine mögliche, sinnvolle Antwort zu #1. Wenn der Link in #4 auch für illegale Deepfakes genutzt wird, so bedeutet das nicht, daß in #1 ein solches Ansinnen bestünde.
Wenn ich ein sog. Fahrtenmesser oder Survival Knife besitze und mitnehme, so kann damit zwar ein Mord begangen werden, aber das heißt noch lange nicht, daß ich dieses überhaupt in krimineller Weise nutze.
Dasselbe gilt auch für das Angebot in #4, da man dort eben auch einen Prompt wie
' Zeige eine blonde Frau, die nur ein Bananenröckchen trägt und einen ganz nackten Mann dunkler Hautfarbe, wobei die Frau eine der Körbchengröße 80 C entsprechende Oberweite aufweist und bei ihm 17×4 zu sehen sind ' eingeben kann.
Bei anderen KI-Tools führen nämlich schon Worte wie nude, topless, bottomless oder entsprechend übersetzt zu einer Ablehnung ..
2 months ago
Simcha Nurit und SEE - heute an Land, morgen auf See !

Ich deute den Beitrag #8 so, dass damit naive Leser dieses Threads darauf hingewiesen werden sollen, dass sie das verlinkte Werkzeug ähnlich vorsichtig verwenden mögen, wie das in #9 zitierte Messer. Das Messer ist allerdings an einer kriminellen Tat überhaupt nicht schuldig, sondern derjenige, der ein Messer benutzt, um anderen zu schaden. Das trifft auch für eine Kamera zu, die dazu verwendet wird, um Aktfotos anzufertigen (oder gar pornografische Szenen festzuhalten) und natürlich auch für alle Bildbearbeitungsprogramme, welche man verwenden kann, um "deepfakes" herzustellen. Logischerweise gilt das auch für eine KI.

Schuld ist immer die Person, die "deepfakes" anfertigt und ohne Zustimmung betroffener Personen verbreitet. Das gilt auch für Fotos "out of cam" (hat also nichts mit KI zu tun).

Und wenn man jetzt einmal darüber nachdenkt, dann fragt man sich zwangsläufig, was eigentlich die Aussage sein soll von:
"Bezieht sich nicht auf den TO, sondern auf die in #4 verlinkte Seite."
Gerade doch auf den TO oder auf google, was diese Seite herausgesucht hat???
2 months ago
Die Website bietet drei Services an: "Undress: Remove clothes on photos with AI", "Face Swap: Replace a face in a porn video", "AI Characters: Generate porn with hero's face". Die ersten beiden Angebote sind nur dann eine legale Option, wenn man die Einwilligung der abgebildeten Personen hat. Aber glaubt hier irgendwer ernsthaft, dass es auf dieser Seite darum geht, einen Service für seriöse Fotograf*innen bei der Bildbearbeitung anzubieten? Und wenn man diese Frage ehrlich beantwortet, ist es tatsächlich weniger eine Frage der Legalität als der Ethik, ob man eine solche Seite unterstützen oder bewerben will. Natürlich kann man das "guns don't kill people"-Argument auch hier anwenden. Aber damit zieht man sich eben aus der Affäre.
@ Simcha Nurit

Die Website bietet drei Services an: "Undress: Remove clothes on photos with AI", "Face Swap: Replace a face in a porn video", "AI Characters: Generate porn with hero's face". Die ersten beiden Angebote sind nur dann eine legale Option, wenn man die Einwilligung der abgebildeten Personen hat.

- Undress : Da kann eine Politikerin, Journalistin, Schauspielerin so dargestellt werden, als wäre sie nackt. Tatsächlich ist sie aber gar nicht nackt, denn es ist gar nicht ihr eigener, authentischer Körper, sondern ein von der KI "erfundener", exakt so gar nicht existierender Körper.
- Face Swap : Das ähnelt stärker der Fotomontage, denn hier handelt es sich um den echten Körper einer lebendigen Frau, die eben z.B. Pornodarstellerin ist - so wie auch in Hollywood ein weibliches Double meist die Aufgabe hat, eine Bettszene zu spielen, die der berühmten Hauptdarstellerin unangenehm ist.
Bei dieser "Körperleihe" gibt es dann 2 Betroffene, denn das Double hat doch schließlich genau dieselben Menschenrechte !
- Eine "solche" Plattform ist wohl fragwürdig - aber wenn auch unter den KI-Anbietern eine "Brandmauer" existiert, die schon "topless" sanktioniert, dann hilft eben die Empfehlung aus #4 ...
2 months ago
Nach zwei Stunden Spielerei mit dem "pornwork", kann ich nur bestätigen, was schon mal geschrieben wurde: die Modelle sind nicht "posingsicher", dazu kommt, dass oft 1-2 Extremitäten zuviel auftauchen, und "Modelanweisungen" werden kaum, pornografische Ausdrücke dagegen recht gut verstanden.
Die Seite lässt sich auf Deutsch umstellen, die Eingaben sollten aber in Englisch erfolgen.
Die KI reagiert auf Deutsche Worte, interpretiert sie aber nach eigenem Gut(schlecht)dünken.
Soweit meine "50 Cent"
-ekk-
2 months ago
Simcha Nurit
Ich habe da auch einmal ein "Totschlag"-Argument. Die von Dir beanstandeten Optionen sind kostenpflichtig, die verbleibende NICHT.

Der Vergleich mit Schusswaffen hinkt, denn diese haben explizit die Aufgabe, Lebewesen zu "schaden". Aus diesem Grund sind Besitz und Nutzung stark reglementiert. Bei Messern, die auch in der Küche eine wertvolle Hilfe sind, sieht das schon erheblich anders aus. Und wo sortierst Du da die KI ein?

Aber noch einmal deutlich: Der Generalverdacht, dass sich Menschen aus diesem Forum damit beschäftigen wollen, realen Persönlichkeiten per KI "die Kleider vom Leibe zu reißen", ist hier nicht angebracht. Auch Du hast Aktfotos von Modellen auf Deiner Sedcard - und niemand bezichtigt Dich, dies ohne Einwilligung der betreffenden Personen zu tun.

Diese Unschuldsvermutung haben alle anderen hier auch verdient.
2 months ago
Und vielleicht noch einmal dies:
auch "Pornwork.ai" basiert auf "stable-diffusion". Vermutlich wurde gegenüber den vielen anderen Werkzeugen, die die gleiche Basis haben, einfach darauf verzichtet, eine "Brandmauer" hochzuziehen.
Zu den letzten Beiträgen:

Das man willkürlich fremden Personen ( Fotos von diesen ) die Kleidung entfernen kann, dazu braucht es nun wirklich keine "K I " !!
Das konnten gute Bildbearbeiter schon zu Photoshop CS 6 Zeiten und eben weniger gute mit der damaligen Freeware "PaintShopPro".
Die angesprochenen KI`s machen das nur wesentlich schneller. Und was machen die KI`s da?
Im Grunde genommen das selbe was die Leute damals auch taten: Man suche sich ein nacktes Model und montiere den Kopf drauf.

Und hier jemanden unter Generalverdacht stellen: Könnte man genau so fragen: "Warum macht ihr (N)Akt-Fotos?"
Gründe könnte man 1000 aufzählen.
2 months ago
Ingo Müller - im-fotografie.de
Ist das jetzt eigentlich das, was Du wissen wolltest?
@ artist de identité inconnue

Im Grunde genommen das selbe was die Leute damals auch taten: Man suche sich ein nacktes Model und montiere den Kopf drauf.

Mal angenommen, sie ist ein recht bekanntes Aktmodel und zudem durch 2 oder 3 tattoos auch eindeutig identifizierbar, sodaß ihre 800.000 follower ihren Körper bestimmt erkennen und zuordnen können .... und dann wird ihr einmal das Konterfei von Alice W. aufmontiert, dann das von Nancy F. und schließlich noch der weiter links sitzenden Heidi R.
Sie möchte aber weder mit Heidi R. noch mit Heidi K. und auch nicht mit den beiden anderen Damen in einen Topf geworfen werden, da sie weiterhin den kecken Chris oder den alten Fritz favorisiert - und daher hat sie verdammt nochmal absolut was dagegen, wenn sie mit ihrem Körper ungewollt als scheinbare Zwillingsschwester von 3 Protagonistinnen aus ihr unangenehmen politischen Strömungen in Bezug gebracht würde ! Und wenn Sahra W. für diesen Fall die Einzige wäre, die den Mumm hätte, zwecks Gegenbeweis blankzuziehen .. dann soll dies hier nur ein thematisch bedingtes Beispiel sein, woran das Rechtsgut Persönlichkeit eigentlich verankert sein soll ! Wieso nur Kopf und nicht auch Körper ?
2 months ago
eckisfotos Du hast meinen Post überhaupt nicht verstanden. Ich habe das Argument mit den Waffen als Beispiel für eine unsaubere Argumentation angeführt, die die Frage nach dem möglichen Schadensrisiko auf die EInzelverantwortung schiebt.

Tatsächlich habe ich nie einen Generalverdacht gegen die Teilnehmer hier geäußert, sondern festgestellt, wozu diese Seite offenkundig hauptsächlich genutzt wird. Also noch einmal: Das ist eine Seite, die davon lebt, dass User sich mehr oder weniger erfolgreich ihre Privatpornos basteln. Wenn man dafür die Fotos von anderen Menschen verwendet (egal ob Kopf oder Körper), verstößt man ohne deren Zustimmung gegen ihre Persönlichkeitsrechte. (Und dass dann vermutlich auch die KI damit trainiert wird, ist noch ein ganz anderes Thema). Diese Rechte gelten auch für prominente Frauen und Pornodarstellerinnen.
Daher: Diese Seite lädt geradezu zum Verstoß gegen diese Rechte ein. Das Erstellen von Revenge Porn und Ähnlichem ist ein seit Jahren zunehmendes Problem. Das kann man bei der Entscheidung, welche Seiten man nutzt, berücksichtigen - oder es eben negieren. Und noch einmal: Das ist eine ethische Entscheidung.
Leider werden die massiven Auswirkungen einer solchen scheinbar harmlosen Spielerei vielen erst klar, wenn diese sie selbst, die Freundin, Partnerin oder Tochter trifft. Das Erstellen pornographischer Bilder ohne das Einverständnis der abgebildeten Personen ist eine Form bildbasierter sexualisierter Gewalt. Und ich finde eine Seite, die das mindestens (!) billigend in Kauf nimmt (es aber tatsächlich mehr oder weniger offen als Geschäftmodell verwendet), alles andere als harmlos.
2 months ago
Zitat Simcha Nurit:
"Du hast meinen Post überhaupt nicht verstanden."
Das habe ich nach Deinem ersten Beitrag auch gehofft - nun aber bin ich eines besseren belehrt worden.
Meine Befürchtungen haben sich mehr als bestätigt.
Auf jeden Fall war dieser Thread vor Deiner Beteiligung rein technisch und nicht in irgendeiner Weise politisch. Deine Belehrungen sind durchaus ein Anzeichen dafür, dass Du einen Generalverdacht hegst. Es ist FALSCH, dass Du nur "unsauberer" Argumentation entgegentreten wolltest, denn die - sofern man sich das denn so zu eigen machen möchte - erfolgte erst nach Deinem Beitrag.

Aber zurück zur Sachebene: Ok, die "Waffen" sind Dir als Vergleich zu blöd. Ich akzeptiere das jetzt einmal "unter Protest" :-). Daher habe ich mir gerade eine KI MIT Sperren gegriffen und folgende wenige Worte dort eingegeben: "Donald Trump mit Badehose". Es brauchte tatsächlich nur diese 4 Worte, um genau das zu bekommen. Natürlich veröffentliche ich das Ergebnis hier nicht, denn ich würde damit Persönlichkeitsrechte mit Füßen treten. Vielleicht finden das viele witzig und akzeptieren das auch für Friedrich Merz. Andere sehen es anders und würden lieber Harbeck und Baerbock "freizügig" sehen. Persönlichkeitsrechte können übrigens ganz ohne Freizügigkeit verletzt werden.

Und jetzt?
Soll man der KI immer mehr verbieten, bis sie nur noch zu 100% politisch korrekte Ergebnisse liefert? Denkverbote? Tatsächlich hat man das in textbasierter KI schon nachgewiesen (logische Antworten werden zensiert weil z.Teil unerwünscht) und ich bin auch gespannt, wie die neue chinesische KI die Demokratie erklärt.

Pornografie ist übrigens nicht per se illegal. Das Problem ist die Verbreitung - und genau da müsste man eigentlich ansetzen, denn Pornografie ist seit vielen vielen Jahren frei für Minderjährige zugänglich - ohne KI-Tools.

Topic has been closed