Moin. Was ich schrob: OpenAIs crawler berücksichtigt jetzt offenbar eine robots.txt. Gefühlt find ich es eine gute Idee, das Dingen von meinen Posts fernzuhalten. Meinungen?
Moin. Was ich schrob: OpenAIs crawler berücksichtigt jetzt offenbar eine robots.txt. Gefühlt find ich es eine gute Idee, das Dingen von meinen Posts fernzuhalten. Meinungen?
Das müsste man vermutlich generell bei Lemmy machen, also deren Machern das vorschlagen, sonst macht das keinen Sinn, weil OpenAI deine Beiträge sonst einfach auf irgendeiner X-beliebigen anderen Instanz lesen kann. https://lemmy.ml/u/the_third@feddit.de https://lemm.ee/u/the_third@feddit.de https://lemmy.world/u/the_third@feddit.de https://beehaw.org/u/the_third@feddit.de
Über die Föderation können sie auch einfach einen eigenen Server aufsetzen und sich da alles komplett runterladen, so dass die Sperre vermutlich eh keine Sinn ergibt.
Also zusammengefasst: Einfach nur Mist schreiben, so dass OpenAI deine Posts eh nicht haben will! Ü
Point taken. Stimmt.
Das wäre doch völlig absurd.
Entweder sie sind anständig und honorieren die robots.txt (und setzten keine eigene Instanz auf nur um das zu umgehen)
Oder sie sind unanständig, honorieren die robots.txt nicht und müssen keine eigene Instanz aufsetzten um das zu umgehen.
So oder so wird sicher niemand eine eigene lemmy Instanz aufsetzen nur um daten zu Farmen.
lol. Die Wette nehm ich an. Hab schon Leute viel absurderes und/oder dümmeres machen sehen, und da ging es noch nicht mal um geldwerte Vorteile für’s Geschäft.