<div dir="ltr"><p>Dear MITgcm Support Team,</p><p>My name is Tulsi Vadalia, and I am currently pursuing my M.Tech from Dharmsinh Desai University (DDU), Nadiad, Gujarat. As part of my research work, I am working at Space Applications Centre (SAC), ISRO, Ahmedabad on a data assimilation project involving MITgcm coupled with PDAF.</p><p>I would like to describe my workflow and the issues I am facing step-by-step.</p><hr><h3>1. Initial Learning and MITgcm Standalone Runs</h3><p>I first learned how to use MITgcm and successfully ran the <em>tutorial_barotropic_gyre</em> case. After that, I ran MITgcm independently (without PDAF), and it executed correctly on my HPC system.</p><hr><h3>2. MITgcm + PDAF with Dummy Data (Working Case)</h3><p>Next, I integrated PDAF with MITgcm by adding the <code>.F</code> files from the MITgcm–PDAF binding into the <code>code</code> folder. After compiling and running the model with PDAF using dummy data, the system worked successfully without any errors.</p><hr><h3>3. Transition to Real Data (MITgcm Only – Working)</h3><p>I then moved to real data by adding a pickup file (<code>.data</code>) in the input configuration. Running MITgcm without PDAF works correctly and generates expected output files.</p><hr><h3>4. Issue with Real Data + PDAF</h3><p>When running MITgcm with PDAF using real data, I observed the following issues:</p><h4> Segmentation Fault (<span style="font-weight:normal">According to me,</span><span style="font-weight:normal"> bcz of Larger Domain)</span></h4><p>To investigate further, I tested different domain decompositions:</p><p><strong>Case 1:</strong></p><p>sNx = 44, sNy = 30<br>nPx = 20, nPy = 20<br>Nr = 66</p><p>→ Nx = 880, Ny = 600</p><p>This configuration resulted in segmentation faults.</p><hr><p><strong>Case 2 (Reduced Configuration):</strong></p><p>sNx = 55, sNy = 75<br>nPx = 16, nPy = 8</p><p>Even after reducing complexity, segmentation faults still occurred.</p><hr><h3>5. Current Issue: MPI Process Mismatch (EEBOOT_MINIMAL Error)</h3><p>To reduce complexity and debug the issue, I modified the domain decomposition in the file:</p><p><code>25km/code/SIZE.h</code></p><p>Current configuration:</p><ul><li style="margin-left:15px"><p>sNx = 32, sNy = 32</p></li><li style="margin-left:15px"><p>nPx = 4, nPy = 2<br>→ Expected MPI processes = nPx × nPy = 8</p></li></ul><p>The model input parameters are defined in the <code>data</code> file in the run directory.</p><p>I then ran the model using:</p><p>mpirun -np 8 --hostfile $PBS_NODEFILE ./mitgcmuv</p><p>However, the model aborts with the following error:</p><p>EEBOOT_MINIMAL: No. of procs = 1 not equal to nPx*nPy = 8<br>EEDIE: earlier error in multi-proc/thread setting<br>PROGRAM MAIN: ends with fatal Error<br><br></p><h4> No Output Generation (Single Process Run)</h4><p>when i set nPx = 1, nPy = 1 ,</p><p>When running with a single MPI process:<br><br>mpirun -np 1 --hostfile $PBS_NODEFILE ./mitgcmuv</p><ul><li style="margin-left:15px"><p>PDAF initializes correctly</p></li><li style="margin-left:15px"><p>Assimilation completes successfully</p></li><li style="margin-left:15px"><p>However, no <code>.data</code> output files are generated</p></li></ul><p>(Reference: output logs attached)<br><br>but after when we increase processes its not running </p><h4></h4><hr><p><strong>Observations:</strong></p><ul><li style="margin-left:15px"><p>MITgcm detects only 1 process (<code>numberOfProcs = 1</code>)</p></li><li style="margin-left:15px"><p>Expected processes = 8 (from SIZE.h configuration)</p></li><li style="margin-left:15px"><p>PDAF initialization (<code>INIT_PARALLEL_PDAF</code>) is invoked before the failure</p></li><li style="margin-left:15px"><p>PDAF reports running with only 1 PE</p></li></ul><p>(Reference: STDERR and STDOUT logs attached)</p><p>This issue appeared after modifying the <code>SIZE.h</code> configuration to reduce the domain size, and I would like to understand why MITgcm is not recognizing multiple MPI processes.</p><hr><h3>Summary of Issues</h3><ul><li style="margin-left:15px"><p>No output generation when running MITgcm + PDAF with real data (single process)</p></li><li style="margin-left:15px"><p>Segmentation faults for larger domain configurations</p></li><li style="margin-left:15px"><p>MPI process mismatch (<code>numberOfProcs = 1</code> instead of expected value) after modifying SIZE.h</p></li></ul><hr><h3>Questions</h3><ol><li style="margin-left:15px"><p>Could the segmentation faults be related to domain decomposition limits, tile sizes, or memory layout in MITgcm?</p></li><li style="margin-left:15px"><p>Why is MITgcm detecting only 1 MPI process despite launching multiple processes?</p></li><li style="margin-left:15px"><p>Could PDAF communicator initialization interfere with MITgcm’s MPI setup?</p></li><li style="margin-left:15px"><p>Is there a recommended workflow for coupling MITgcm with PDAF when transitioning from dummy to real data?</p></li></ol><hr><p>If required, I can provide additional files for further investigation.</p><p>Please let me know if any specific files or details are needed, and I will be happy to share them.</p><p>I would greatly appreciate any guidance or suggestions to resolve these issues.</p><p>Thank you for your time and support.</p><p>Best regards,<br>Tulsi Vadalia<br>M.Tech (DDU, Nadiad)<br>Research Intern, SAC-ISRO, Ahmedabad</p></div>

<br>
<span style="color:rgb(34,34,34);font-family:Arial,sans-serif;text-align:justify;background-color:rgb(255,255,255)">DISCLAIMER: The information transmitted is intended only for the person or entity to which it is addressed and may contain confidential and/or privileged material which is the intellectual property of Dharmsinh Desai University (D.D.U., Nadiad). Any review, retransmission, dissemination or other use of, or taking of any action in reliance upon this information by persons or entities other than the intended recipient is strictly prohibited. If you are not the intended recipient, or the employee, or agent responsible for delivering the message to the intended recipient and/or if you have received this in error, please contact the sender and delete the material from the computer or device. Dharmsinh Desai University does not take any liability or responsibility for any malicious codes/software and/or viruses/Trojan horses that may have been picked up during the transmission of this message. By opening and solely relying on the contents or part thereof this message, and taking action thereof, the recipient relieves the Dharmsinh Desai University of all the liabilities including any damages done to the recipient's pc/laptop/peripherals and other communication devices due to any reason.</span>