Big Data Storage: not activated (not available on my plan)
Problem: All write operations (update row, create row) with the SeaTable Tool Node v2 fail with a 404 error:
{ "error_message": "base not found in big data storage" }
Read operations (list) work fine. Only update and create are affected.
Steps to reproduce:
Create a workflow with an AI Agent and SeaTable Tool Nodes (v2) as tools
Use update or create operations on any table
The node returns 404: “base not found in big data storage”
Root cause (my assumption): The v2 node uses the /api-gateway/ endpoints for all operations. These endpoints seem to require Big Data Storage to be activated in the base. Since Big Data Storage is only available on SeaTable Enterprise, the v2 node effectively breaks write operations for all non-Enterprise users.
The v1 node used /dtable-server/ endpoints which work without Big Data Storage.
Workaround attempted:
Downgrading to typeVersion 1 by editing the workflow JSON works for the API calls, but v1 requires columns to be explicitly defined in the node configuration. This removes the dynamic $fromAI() capability that makes v2 so useful with AI Agents.
Installing the SeaTable community node is not possible on n8n Cloud (not verified).
Expected behavior: The v2 node should work with bases that do not have Big Data Storage activated, by falling back to the /dtable-server/ endpoints when /api-gateway/ returns a “big data” error — or by not requiring Big Data Storage at all.
Request: Could you either:
Fix the v2 node to work without Big Data Storage, or
Get the community node (n8n-nodes-seatable) verified for n8n Cloud so we can install it as an alternative?
I can confirm, that it is not mandatory to activate big data to use n8n. Also the n8n cloud offers the latest version of the seatable n8n version. Please provide more information, about your concrete workflow.
Im Stack Trace sieht man, dass der seaTableTool den Code aus v2/actions/row/update.operation.ts und v2/GenericFunctions.ts nutzt — vermutlich die /api-gateway/ Endpoints, die Big Data voraussetzen. Der normale seaTable Node nutzt offenbar andere Endpoints.
Hier mein Workflow (nur die relevanten Nodes vereinfacht):
Der AI Agent hat SeaTable Tool Nodes als Tools angebunden. Lesen funktioniert, Schreiben gibt den Big Data Fehler. Mein Plan ist kein Enterprise — Big Data kann ich nicht aktivieren.
Ich verstehe nur Bahnhof. Wo kommt dieses seaTableTool her? Wurde hier irgendetwas mit AI-Agenten gebaut? Bitte teile deinen Workflow als Screenshot oder besser als JSON.
Ja, sorry. Ich hab danach so viel herum gebastelt, dass ich gerade die .json nicht finde und den Workflow, auf dem das hier basiert ebenfalls nicht.
Ja, habe einen AI Agenten angelegt, der in seaTable Daten schreiben sollte. Und da kam immer ein Fehler. Obwohl Big Data ausgeschaltet war im Node, hat er immer
{ “error_message”: “base not found in big data storage” } ausgegeben.
Das wollte ich nur mitteilen.
Wenn du damit nichts anfangen kannst - ok. Vielleicht hab ich auch nur Mist zusammengeklickt in n8n.