Email
News
Neues aus der Welt der Wissenschaft
 
ORF ON Science :  News :  Medizin und Gesundheit .  Leben 
 
Neues Buch: Künstliche Intelligenz & Emotionen  
    Künstliche Intelligenz und Emotionen sind mittlerweile kein Widerspruch mehr. Der österreichische "Guru" der künstlichen Intelligenz, Robert Trappl, hat zum Thema ein neues Buch herausgeben.  

 

 
 
 
Darin werden Gefühle bei Mensch und Maschine von Wissenschaftlern, Künstlern, Philosophen und Ingenieuren beschrieben und analysiert. Und es wird die Frage aufgeworfen: Welche Konsequenzen kann es haben, wenn Roboter oder Computerprogramme Gefühle vermitteln?
Gefühlsechte Artefakte
 
 
Welche Bedeutung haben Emotionen bei elektronischem Spielzeug, Computerprogrammen, Computerspielen oder Robotern? Damit befasst sich das Buch "Emotions in Humans and Artifacts".

Dabei geht es nicht um die Gefühle, die der Mensch den Artefakten entgegen bringt, sondern um jene Gefühle, die diese dem Menschen suggerieren. Robert Trappl, Vorstand des Instituts für medizinische Kybernetik und artificial intelligence der Universität Wien, hat das Buch über Gefühle bei Mensch und Maschine mitherausgegeben: "Ich meine Emotionen, die in diesen Spielen drinnen sind. Inwieweit diese Spiele Emotionen des Menschen erkennen, verarbeiten und äußern können - und damit auch hervorrufen können."
->   Institut für medizinische Kybernetik und artificial intelligence
...
Beispiele: Furby, Tamagotchi, Poo-Chi
"Tamagotchi" und "Furby" - dieses Kinderspielzeug löste vor wenigen Jahren Diskussionen unter Pädagogen und Psychologen aus. Das Plüschtier "Furby" konnte sprechen lernen. Das Computerküken "Tamagotchi" entwickelte sich in seinem Plastik-Ei je nach Pflege des menschlichen Besitzers gut, wurde gemein oder starb.

Der elektronische Hund "Poo-Chi" machte "Sitz" oder "Platz", konnte tanzen und bellen. Ausgestattet mit einem Berührungs-, Geräusch-, Licht- und Infrarotsensor konnte er laut Hersteller seinen Gemütszustand durch Bellen, Winseln und verschiedene Blicken verständlich machen. Weitere Entwicklungen sind z.B. der Roboterhund "Aibo" oder das Roboterkätzchen "FurReal" mit grauem, weißem oder braunem Fell.
...
Wie weit darf man gehen?
 
 
Früher habe ein Kind Emotionen in Spielzeug hineinprojiziert, meinte der Experte für künstliche Intelligenz, Robert Trappl im ORF-Radio. Das Kind habe z.B. mit einer Puppe gesprochen und dabei gesagt "Du bist jetzt müde, du bist jetzt hungrig." Mittlerweile gebe es Spielzeug, das diese Bedürfnisse selbst ausdrückt mit den Worten "Ich bin müde. Ich will gefüttert werden. Spiel mit mir!"

Trappl: "Das heißt, sie [Anm. die Spielsachen] rufen Emotionen in gezielter Weise hervor und können sie natürlich auch manipulieren. Man stelle sich eine Puppe vor, die sagt Das ist angenehm! Tu das öfter! - wenn man sie mit Nadeln durchbohrt. Darf man so eine Puppe bauen? Welche Konsequenzen könnte so eine Puppe haben?"
...
Das Buch "Emotions in Humans and Artifacts" ist im Verlag des Massachusetts Institute of Technology erschienen, kurz MIT Press.
Herausgeber: Robert Trappl, Paolo Petta und Sabine Payr.
->   Das Buch (MIT Press)
...
Weiteres Kapitel: Pflegeroboter
 
 
In dem Buch "Emotions in Humans and Artifacts" werden neben den Entwicklungen und den ethischen Fragen bei Kinderspielzeug zum Beispiel auch Pflegeroboter besprochen.

"Wir leben in einer Kultur, in der immer weniger Menschen bereit sind, einen immer größeren Prozentsatz der alternden Menschen zu betreuen. Kann man so etwas, wie die Betreuung von älteren Menschen auch durch Geräte machen?"

Dabei gebe es interessante kulturelle Unterschiede, sagt Robert Trappl: Während es bei uns sehr strittig wäre, ob man Menschen einem noch so intelligenten und emotionalen Roboter aussetzen könne, herrsche in Japan die gegenteilige Einstellung: "Für einen Japaner ist es außerordentlich peinlich, schwach und hinfällig gegenüber einem anderen Menschen zu sein - zumindest sagt man das. Bei dieser Einstellung wäre es wünschenswert, sich nicht einem Menschen ausgeliefert zu fühlen, sondern einer Maschine. Die Frage ist: Werden wir das auch in Europa und in den USA lernen?"

Barbara Daser, Ö1-Wissenschaft
 
 
 
Mehr zu dem Thema in science.ORF.at:
->   Care-O-Bot: Roboterassistent für Haushalt und Pflege (2.10.03)
->   Intelligent: Textilien der Zukunft (6.9.01)
->   Die Trends in der Artificial Intelligence (6.8.01)

 
 

 
ORF ON Science :  News :  Technologie 
 
  karl273 | 08.10, 07:57
Nadeln

Das Beispiel mit den Puppen und den Nadeln hört sich zwar ungemein grauslich an, aber was ist mit der künstlichen Intelligenz in ganz normalen Computerspielen, wie zum Beispiel in HALO.

Ich habe in HALO mindestens 97531 Aliens augelöscht, mit Maschinenpistole, Flammenwerfer, Handgranaten, und anderen Vernichtungswaffen.

Daneben nehmen sich Pflegeroboter und Tamagotchis relativ harmlos aus.

Soll ich jetzt ein schlechtes Gewissen haben, und mein Morden einstellen, oder handelt es sich um ein sozial unterstützenswertes Sublimationsverhalten zum Abbau meiner Agressionen ?

 
 
 
  nommo | 07.10, 11:37

>Für einen Japaner ist es außerordentlich peinlich, schwach und hinfällig gegenüber einem anderen Menschen zu sein<
Wer Fürsorgepflicht gegenüber einem Tamagotchi entwickeln kann, der kann sich auch gegen das Peinlichkeitsgefühl gegenüber dem Pflegeroboter nicht wehren. Zumal es berechtigt ist, denn so wie menschliche Pflegekräfte von höher- bzw. anders qualifizierten Menschen überwacht werden, so wird auch da Überwachung nötig sein. Was wenn der Überwacher ein Perversling ist, der seine Cam gleich ans Internet anschließt?
 
 
 
  stsz | 07.10, 08:59

Können Gefühle durch neuronale Vernetzung ohne die Manipulation von Hormonen überhaupt existieren?

Ein Großteil unserer Gefühle kommt doch daher!
 
 
 
  allgeier | 07.10, 09:51
das neuronale Netzwerk und der Körper sind eine Einheit (kein esoterischer Satz ;-) sondern Physiologie), und noch schlimmer: ohne die Funktion der Emotionen können wir gar nicht denken.
 
  salai | 07.10, 11:12
@stsz
Natürlich haben Hormone Einfluß auf das NN. Aber das könnte man doch auch simulieren. Wahrscheinlich wäre die Sim bereits hinreichend genau, wenn sie auf Zellebene (inklusive Stoffwechsel - für die Hormone;) arbeiten würde.

Allerdings ist das (leider) noch Zukunftsmusik. Ich schätze mal, dass alleine die Basisdaten weit jenseits der Terabyte-Grenze liegen (ein paar Milliarden Neuronen, jedes davon mit ein paar kB bis MB an "Statusdaten"). Vom Rechnenaufwand mal ganz abgesehen....
 
  karl273 | 07.10, 11:13
Belohnung

Man kann heute schon komplizierte numerische Berechnungen ohne klassischen Computer mit Hilfe von DNA-Molekülen durchführen.

Umgekehrt kann man die Wirkung von Belohnungs- und Bestrafungs-Botenstoffen zur Modifikation eines neuronalen Netzwerks auf einem Computer numerisch simulieren.

Erfolgreiche Verhaltensmuster werden durch das Belohnungssystem begünstigt, schädliche Verhaltensmuster werden durch das Bestrafungssystem geschwächt.

Bei Lebewesen geschieht das dadurch, daß für erfolgreiches Verhalten votierende Synapsen durch Botenstoffe des Belohnungssystems gestärkt werden, und die erfolgreiches Verhalten hemmenden Synapsen durch Botenstoffe des Belohnungssystems geschwächt werden.

Für schädliches Verhalten votierende Synapsen werden durch Botenstoffe des Bestrafungssystems geschwächt, und die schädliches Verhalten hemmenden Synapsen werden durch Botenstoffe des Bestrafungssystems gestärkt.

Das Computerspiel Creatures funktioniert auf diese Weise.

Künstliches Leben im PC
Autor: Christoph Pöppe
Beitragstyp: Mathematische Unterhaltungen
Ausgabe: Spektrum der Wissenschaft Oktober 1996
Seite: 14

Kostenloser Artikel dazu :

http://www.wissenschaft-online.de/abo/spektrum/archiv/1030

 
 
  strangedos | 07.10, 00:49
Emotionen alleine sind noch gut und schön,..
Aber was machen wir wenn der nette Robby eine komplette PERSÖNLICHKEIT mit allem Drumm&Drann entwickelt - also "Ich, der Robot" sagt? Kriegt er dann die Menschenrechte zuerkannt? Geht ja schließlich um ein denkendes, fühlendes Wesen. Man denke auch an die Belastung für das zukünftige Gesundheitssystem! Ersatz-Pentiums LX@4,4ExaHerz sollen ganz schön teuer sein ;)
 
 
 
  hosenbeisser | 06.10, 21:50
karl273 hat irgendwie schon recht
Ansich sind Emotionen nichts anderes als mehr oder weniger einfache Regelkreise die halt gewisse Grundbedürfnisse einstellen. Und die halt fest kodiert in unseren Genen vorliegen und im Ablauf fixiert sind. So ein Art ROM-Programm. Warum sollte diese Programm und dessen Funktionalität nicht auch in Maschinen ablaufen können?

Dass man diese Abläufe z.B. durch bestimmte chemische Substanzen stark beeinflussen kann, ist auch nichts neues. Da kommen durch das chemische Drogenzeugs was in diese Regelkreise eingreift und Stoffwechsel verändert, ein bisserl was in den "gefühlten" Emotionen durcheinander. Kennt jeder der schon mal auf einen LSD-Trip war.
 
 
 
  ipv6 | 06.10, 21:41
ein altes buch: stanislaw lem

Die siebente Reise oder wie Trurls Vollkommenheit zum Bösen führte

"darf könig grausam seine simulierten untergebenen quälen?"

obendrein unterhaltsam.
 
 
 
  hosenbeisser | 06.10, 21:57
Nichts gegen Stanislaw Lem
Zielt aber vom Inhalt bzw. der Message irgendwie am Thema vorbei. Lem Erzählungen sind auf leichten Niveau eine Fiktion zum Zeitvertreib auf längeren Bahnreisen, mehr nicht. Um nicht zu sagen: Solaris ein Kassenschlager und für Kurzweil, aber kein wesentlicher Inhalt ausser Fiktion. Ich finds auch nicht besonders unterhaltsam, aber das ist persönlicher Eindruck.
 
  ipv6 | 06.10, 23:30
naja, nicht ganz.
"wie Trurls Vollkommenheit zum Bösen führte" ist keine themenverfehlung. kennst du die geschichte? im bericht wurde eine sprechende puppe erwähnt, die ein grausames kind mit nadeln durchbohrt.
 
  karl273 | 07.10, 08:30
SOLARIS Teil II

SOLARIS von Stanislaw Lem ist nicht gerade ein starker Science-Fiction-Action-Knaller.

Auch eine zweimalige Verfilmung hat dieser Geschichte nicht den nötigen Schwung verliehen.

Deshalb habe ich SOLARIS Teil II geschrieben, welcher viel kürzer, und etwas humorvoller ist.

http://members.chello.at/karl.bednarik/SOLARIS2.txt

 
 
  allgeier | 06.10, 19:23
Beweise.
ich finde, einen strengen Beweis nach den üblichen wissenschaftlichen Regeln gibt es nicht für die Annahme, dass mein Gegenüber so wie ich empfindet.
Klasse! Dann kann ich mit meinem Gegenüber ohne Rücksicht umgehen, (sofern mich nicht irgendein Gesetz einschränkt - welches man allerdings umgehen kann). "Der andere möchte gerne eingeschaltet bleiben?" Egal! Nein, in "so einer Welt" würden wir nicht als Menschen überleben.
Man könnte sich vielleicht ein paar Gedanken darüber machen, was Leben ist, und was "Mensch" ist (und nicht Rechnerleistung als "Intelligenz" verehren - bei allem Respekt für die Leistung der Entwickler. Es fasziniert auch mich, lernfähige Systeme zu bilden). Was Damasio zu alldem wohl zu sagen hat, wäre recht interessant.
 
 
 
  karl273 | 06.10, 19:57
Außenwelt
Hallo allgeier,
es ist noch schlimmer, es gibt für ein Individuum keinen sicheren Beweis für die Existenz einer realen Außenwelt, es könnte ja alles geträumt oder simuliert sein (Solipsismus).
Es ist sicher gut, wenn eine Maschine nicht allen ihren Eingabewerten blind vertraut, denn Sensoren können sich auch irren, oder getäuscht werden.
Wenn man also der Maschine Kritikvermögen einbaut, dann ist es empfehlenswert, dieses Kritikvermögen selektiv zu blockieren.
Zum Beispiel muß die Maschine blind an die Existenz ihres Erbauers glauben, oder daß ihre vom Erbauer eingebauten Ziele richtig sind.
Um eine ethisch unbedenkliche Welt zu erhalten, sollten sich alle Individuen ungefähr am kategorischen Imperativ von Kant orientieren.
Nur wenn alle Individuen auf die möglicherweise existierenden Empfindungen aller anderen möglicherweise existierenden Individuen in einer möglicherweise existierenden Außenwelt Rücksicht nehmen, dann kann sich das einzelne Individuum Rücksichtnahme von den anderen Individuen erhoffen.
 
 
  sensortimecom | 06.10, 21:43
Kant`scher Imperativ
Richtig, Karl!

Ein selbstorganisierendes System (im Sinne z.B. eines transhumanen Roboters) kann zwar AUTONOM existieren und funktionieren; jedoch nicht SOUVERÄN.

Das heißt: es braucht Grundsätze, Richtlinien, Vorgaben. Es ist NICHT fähig diese Vorgaben selbst zu ergründen. Gödels Unvollständigkeits- satz steht jedem solchen Anspruch mathematisch/logisch entgegen.

Dies ist ein wichtiger Aspekt auch für das Zusammenleben der Menschen in einem Gesellschaftssystem: es funktioniert NUR wenn sich einzelne Individuen an moralische Mindest-Agreements - wie dem besagten Kantschen Imperativ - orientieren.

Ich hab mal ein einfaches Beispiel erwähnt: Du lässt 10 vollautomatische autonome sensor-gesteuerte Rasenmäher
auf die Wiese, um gemeinsam ein Feld zu mähen. Benötigen sie eine Art "moralisches Mindest-Agreement"?
Na sicher. Es muss entweder vorgegeben bzw. fix programmiert sein. Oder aber -es gäbe auch die Alternative: zwei Test-Rasenmäher bekommen die Wahl, sich entweder FREIWILLIG an vorgegebene Prinzipien ("Betriebsanleitung") zu halten oder nicht. Schmeißen sie sich gegenseitig aus dem Rasen, so gilt es für die restlichen acht Rasenmäher als BEWEIS, dass sie sich freiwillig an die Vorgaben zu halten haben. Sie könnten mittels Sensorik so geschaffen sein, dass sie den besagten Test selber erkennen und autonom ihre Schlüsse ziehen können...

mfg Erich B. www.sensortime.com
 
 
  hosenbeisser | 06.10, 22:05
@sensortimecom,
Deine Schwenks auf Gödels Unvollständigkeitssatz sind in diesem Kontext nicht nachvollziehbar. Das ist irgendwie so lose zusammengetragen, einfach hingeworfen. Das Beispiel mit den Rasenmäheren zwar nett - willst damit die Notwendigkeit einer Gottheit oder Überwesens postulieren? Sorry, das ist einfach nur Gewusel im Inhalt.

Aber immerhin hast Deinen Pessimismus aufgegeben. Na, das ist schon mal was. *fg*
 
 
  sensortimecom | 06.10, 22:52
@hosenbeisser
Zumm Thema "Gott":

Ja, ich bin der Ansicht, dass die Menschheit ohne irgendeine "göttliche" Offenbarung (kannst es auch "Betriebsanleitung etc. nennen) NICHT auskommen wird. Sie wird ihr eigenes Modell, in dem sie "souverän" zu sein glaubt, solange zu adaptieren versuchen, bis sie ins Chaos stürzt. Es gibt mathematisch/logische Modelle dafür die das beweisen.

Gödel ist SEHR WOHL drauf anwendbar.
Nur wird dir das KEIN Soziologe oder Politologe bestätigen wollen...

Um es anders zu beschreiben: Existiert KEIN Gott, so existiert auch keine "Betriebsanleitung" für irgendwelche moralische Imperative.
Folge: Es existiert auch KEINERLEI begründbare Handhabe gegen vorsätzliche totale Destruktion (jeder könnte sich ja auch auf Solipsismus berufen).
s. z.B. "das Untier" v. F. Horstmann)

mfg Erich B.
 
 
  karl273 | 07.10, 08:09
Altruismus

Hallo sensortimecom,

Ein guter und kostenloser Artikel zur Evolution des Altruismus,
hier wird das Rasenmäher-Beispiel sehr ausführlich getestet und beschrieben.

Altruismus mit Kündigungsmöglichkeit,
von Jean-Paul Delahaye und Philippe Mathieu,
aus Spektrum der Wissenschaft, Februar 1998, Seite 8, Beitragstyp: Mathematische Unterhaltungen.

Hier ist er zu finden :
http://www.wissenschaft-online.de/abo/spektrum/archiv/3956

***

Ich glaube, daß Menschen dann bevorzugt überleben, wenn sie ein Teil einer altruistischen Gesellschaft sind.
Deshalb zeigen längerfristig überlebende Menschen eine Verhaltenspräferenz zum Altruismus.

 
 
  allgeier | 07.10, 09:45
... wie ich mir erklären lassen habe: Kant hat den kategorischen Imperativ nicht "aufgestellt", nicht erfunden, sondern schlicht festgestellt, dass es diese Regel gibt (er suchte eine geisteswissenschaftliche Formulierung). Andere Kulturen kennen Entsprechendes. Optimismus - Pessimismus? Lässt sich nicht per Diskussion und schon gar nicht per posting "entscheiden". Leben - günstigerweise mit dem kategorischen Imperativ (oder goldene Regel) in der Werkzeugtasche.
 
  karl273 | 06.10, 19:06
SOLL-Wert
Motivationen, Instinkte, Triebe, Wünsche, Ziele, SOLL-Werte.
Regelsysteme kennen den IST-Wert, den SOLL-Wert, und den STELL-Wert.
Aufgabe eines Regelsystems ist es, aus der IST-SOLL-Differenz, also der Regel-Abweichung, den STELL-Wert zu ermitteln.
Ob ein Regelsystem glücklich ist, wenn es die IST-SOLL-Differenz von Null erreicht, kann ich nicht sagen, aber Tatsache ist, daß alle Regelsysteme diesen Zustand anstreben.
Zur Regelung des Wasserstandes in einer Toilettenspülung, oder der Temperatur eines Kühlschranks, genügen schon ganz einfache Systeme ohne eigene Intelligenz, aber alle Regelsysteme besitzen ein definiertes Ziel.
Bei Lebewesen dienen die Sinnesorgane zur Ermittlung des IST-Wertes, und die motorischen Organe zur Ausgabe des STELL-Wertes.
Im Allgemeinen wird die SOLL-Wert-Vorgabe von den evolutionär älteren Teilen des Gehirns übernommen, während die evolutionär neueren Teile des Gehirns die Bestimmung der Regel-Abweichung, und deren Behebung übernehmen.
Bei komplizierteren Regelsystemen, mit mehreren Zielen, muß daher ein Wertungssystem existieren, welches die momentan dringendsten Ziele bevorzugt zu erreichen versucht.
Dieses Wertungssystem kann man bei Lebewesen als das Parlament der Instinkte (Konrad Lorenz) oder als das Glücksprinzip bezeichnen (Sigmund Freud).
Auch die großen Religionen verwenden Strategien um die IST-SOLL-Differenz zu vermindern.
Während die christlichen Religionen nach dem Tod die Erfüllung aller Wünsche ankündigen (IST-Wert anpassen), lehrt die budhistische Religion das Ablegen aller Wünsche um das Nirvana zu erreichen (SOLL-Wert löschen).
Ganz ohne vorgegebene SOLL-Werte geht es auch bei einem Roboter nicht, denn sonst tut diese Maschine einfach gar nichts (maschinelles Nirvana).
 
 
 
  sensortimecom | 06.10, 19:50
Ein Kollege Mess- und Regeltechniker. Ach wie tröstlich;-)
.
 
  nommo | 07.10, 11:18
>...welches die momentan dringendsten Ziele bevorzugt zu erreichen versucht.<
Dazu Anmerkung von mir: ...und dabei selbst erkennt, welche Toleranz nötig ist. In "Ananke" von Stan Lem (lange vor Fuzzy-Logic geschrieben!) gut geschildert.

 
 
  chartart | 06.10, 16:45
was für ein tolles Lernziel
Wirklich, Herr Trappl, ich würde auch gerne "lernen", mich einer Maschine ausliefern zu wollen. Einer Maschine, die doch nur das tut, was ihr ein Programmierer vorgegeben hat, zu tun. Mit so einer Maschine will ich meinen Lebensabend verbringen.

Unglaublich. Herr Trappl, Sie haben wohl ein bisschen zu viel Marx gelesen... Der sah die Menschen auch nur als FRESSMASCHINEN, und soweit sie das nicht waren, sollten sie sich dorthin entwickeln.

Auch ein netter "Lernprozess"...
 
 
 
  austrianstormchaser | 06.10, 18:07
Maschinen können auf Lernfähigkeit programmiert werden
Und diese können sehr rasch mehr als ihr Programm. Wobei die Frage ist wie weit diese beginnende Fähigkeit auch unheimlich ist...
 
  ipv6 | 06.10, 21:35
"sie tun nur, was ein programmierer vorgegeben hat"
ich kenn einen programmierer, der wurde von seinem eigenen schachprogramm schach-matt gesetzt. (wenn ein programm nur das tut, was ein programmierer vorgibt, haette mein freund das doch voraussehen muessen).
 
  austrianstormchaser | 06.10, 16:41
Wann endet Simulation weil sie wirklich wird?
Noch sind die Computer nicht menschlich genug, nicht komplex genug um wirklich zu fühlen, einige Programme können dies nur simulieren. Aber wann wird aus dem Spiel ernst? Meiner Meinung nach ist es nur mehr eine Frage von wenigen Jahren bis KI sehr sehr menschlich wird, bis der Computer wirklich leben WILL, eingeschalten sein WILL, Eigenschaften besitzt, unlogisch zu denken beginnt, ZU DENKEN beginnt! Wir sollten uns auch langsam Gedanken machen wir eine derartige Maschine bahandelt gehört. Eine KI die dem menschen gleichkommt verlangt eigentlich auch nach Menschenrecheten... Gibts die nicht würde dies schlimme (Krieg wie in der Sci Fi) Folgen haben... Es wird eine große Chance. Und eine große Gefahr.
 
 
 

 
 
  austriangandalf | 06.10, 16:00
Zum Pflegeroboter:
Bin neugierig, wie "zart" einem ein Pflegeroboter den Arsch auswischt, wenn man in den Windeln liegt... Bin froh, kein Japaner zu sein!!!
 
 
 
  salai | 06.10, 13:43

Ich finde es interessant, dass man Emotionen immer mit Menschen - oder zumindest mit Tieren - assoziiert. Dabei handelt es sich dabei doch "nur" um die Reaktionen eines hochentwickeltes Neuralen Netzes auf bestimmte Reize (Hormone, Wahrnehmungen,...). Ich für meinen Teil kann nicht objektiv feststellen, ob ein anderer Mensch, ein Tier oder ein Computer liebt oder hasst, sich freut oder traurig ist; ich kann nur dessen Reaktionen beobachten und interpretieren. Meiner Meinung nach ist der Unterschied zwischen einer "seelenlosen Maschine" und einer KI nur die Komplexität. Man nehme den Ultimaten Rechner (UR, (c) by me) und lasse eine atomgenaue Simulation eines menschlichen Gehirns darauf laufen -> KI. So und jetzt hol ich mir was zum essen. Irgendein primitiver Teil meines Nachhirns redet mir gerade ein, dass ich hunger habe ;)
 
 
 
  Die ORF.at-Foren sind allgemein zugängliche, offene und demokratische Diskursplattformen. Bitte bleiben Sie sachlich und bemühen Sie sich um eine faire und freundliche Diskussionsatmosphäre. Die Redaktion übernimmt keinerlei Verantwortung für den Inhalt der Beiträge, behält sich aber das Recht vor, krass unsachliche, rechtswidrige oder moralisch bedenkliche Beiträge sowie Beiträge, die dem Ansehen des Mediums schaden, zu löschen und nötigenfalls User aus der Debatte auszuschließen.

Sie als Verfasser haften für sämtliche von Ihnen veröffentlichte Beiträge selbst und können dafür auch gerichtlich zur Verantwortung gezogen werden. Beachten Sie daher bitte, dass auch die freie Meinungsäußerung im Internet den Schranken des geltenden Rechts, insbesondere des Strafgesetzbuches (Üble Nachrede, Ehrenbeleidigung etc.) und des Verbotsgesetzes, unterliegt. Die Redaktion behält sich vor, strafrechtlich relevante Tatbestände gegebenenfalls den zuständigen Behörden zur Kenntnis zu bringen.

Die Registrierungsbedingungen sind zu akzeptieren und einzuhalten, ebenso Chatiquette und Netiquette!
 


 
 

 Übersicht: Alle ORF-Angebote auf einen Blick