Programmieren & Softwareentwicklung

Wenn Du nicht nur Anwender sein willst, sondern auch aktiv programmierst oder mit dem Gedanken spielst, dann warten hier die passenden Fragen und Antworten auf Dich.
22.619 Fragen
Mit eigener Domain kostenlose Email Server möglich?

Ich versteh nicht ganz wie Email funktioniert im Hintergrund.

ich habe normalerweise ein Webhosting Paket wo alles schon mit einer Inklusiv Domain Verknüpft ist.

Man kann mit Oberfläche seine Postfächer anlegen, die Webmail Anwendung nutzen oder über die imap smtp ein/ausgangsserver die Mails in seiner Eigenen Email Anwendung anzeigen / verschicken usw.

Wenn ich einen VPS von Ionos für 1€ miete müsste ich das selber machen ?

dann gehen die keine ahnung 5gb nicht nur für Apache/Nginx das ich installieren muss drauf und die Website an sich sondern

das muss ich auch teilen mit irgendeiner email software.

Und würde es auch so gehen das ich mir eine Domain miete für 0.5ct 12 Monate bei Strato.

Meine NextJs Webapp bei Vercel Deploy mit dieser Domain kann man ja einrichten wenn man irgendwas an den Dns einstellungen macht, sollte nicht schwer sein.
Und dann als extra irgendwo kostenlos mit

dieser domain irgendwo postfächer erstellt auch wenn es nur 1gb sind.

zb info@mustermann.de , und dann bei web.de umsonst gehostet.

Website umsonst bei vercel

Und die cents strato Domain zeigt auf vercel.

Ich will versuchen die kosten zu minimieren da normale Pakete Overkill für mich sind und ich so Freunden/Bekannten auch helfen kann einzusteigen.

Es ist auch attraktiv wenn ich Kunden habe die selber neu selbstständig sind und wenig geld haben.

Besser einen armen Kunden die Seite erstellen ohne Monatliche Kosten bis auf Domain 1 cent / 1 jahr danach 1€ statt garkeinen kunden weil er nicht 6€ pro monat ausgeben will für hosting domain ssl email.

Wenn es mit Wordpress sein soll kommt man nicht drumherum dann kommen auch noch 15€ für Plugins und Page Builder dazu.

Schon sind wir bei 250€ Im Jahr

Ask Me Anything: Blickwechsel

Du stellst die Fragen, ein außergewöhnlicher Nutzer antwortet! Begegne mit Deinen Fragen anderen Menschen hautnah und persönlich.

Ask Me Anything: Themenspecials

Im gutefrage Themenspecial beantworten Verbände, Organisationen und Personen des öffentlichen Lebens Deine Fragen zu aktuellen Themen.
Reinforcment Learning (RL) in PyTorch - habe ich einen Denkfehler?

Guten Tag allerseits.

Ich möchte mittels PyTorch und RL ein neuronales Netzwerk (NN) trainieren und ich komme gerade nicht weiter. Das NN soll ein Strategiespiel (Meta-Tic-Tac-Toe) lernen. Das Spiel ist deterministisch und zwei Spieler wechseln sich ab und platzieren auf ein großes Feld X und O. Das NN erhält als Input das Feld (wo ist X, wo ist O, wo ist leer) und soll als Output den besten Zug für X und den besten Zug für O in der gegebenen Situation vorhersagen.

Mein Training soll so aussehen:
1) Das NN schätzt einen Zug, anhand der Spielfeldinformationen
2) Ist der Zug valide, so wird die Belohnung berechnet. Ist der Zug nicht valide, so wird die negative Belohnung (Bestrafung) berechnet.
3) Es wird eine "learn"-Methode des NNs aufgerufen, die folgende drei Parameter hat: [Spielfeldinformationen, geschätzter Zug und Belohnung]. Das NN soll mit diesen Parametern Backpropagation machen und sich verbessern.
4) War der Zug nicht valide, so soll wieder bei Schritt 1 angefangen werden (bis ein valider Zug herauskommt). War der Zug valide, wird dieser in das Spiel eingetragen und man beginnt wieder mit Schritt 1, diesmal aber mit dem aktualisierten Spielfeld (bis das Spiel endet).

So soll das NN sehr häufig gegen sich selbst spielen und seine X-Präzision und O-Präzision verbessern.

Mein Problem ist die learn-Methode.
Online finde ich jede Menge Algorithmen, die viele Spiele spielen und die Spielfeldinformationen, geschätzten Züge und Belohnungen speichern und erst später auswerten. Das will ich ungerne machen, da ich das unintuitiv finde, da man ja bei jedem Zug lernt.
Chat-GPT will mir ständig eine learn-Methode aufdrücken, die die Backpropagation lediglich mit den Parametern "geschätzter Zug" und "Belohnung" machen will, ohne den Spielfeldzustand zu berücksichtigen. Das ergibt für mich keinen Sinn, da man ja Züge anhand des Spielfelds macht.

Eine für mich angepasste learn-Methode finde ich nicht, obwohl ich denke gelesen zu haben, dass mein Lernprinzip auch funktionieren soll.

Ich nutze Adam als optimizer.

Deswegen frage ich mich, ob ich einen Denkfehler habe und ob mein Algorithmus nicht funktionieren kann. Das ist mein erstes RL-Projekt, ich kenne mich also nicht aus.

Falls also jemand einen Denkfehler findet, wäre es nett mich darauf hinzuweisen :)

Wenn jemand eine learn-Methode mit den 3 Parametern kennt, wäre es nett sie mir zu teilen.